(navigation image)
Home American Libraries | Canadian Libraries | Universal Library | Community Texts | Project Gutenberg | Children's Library | Biodiversity Heritage Library | Additional Collections
Search: Advanced Search
Anonymous User (login or join us)
Upload
See other formats

Full text of "Le Scienze, n. 266"

Ottobre 1990 
Numero 266 
Anno XX111 
Volume XLV 



LE SCIENZE 

"**-»-* SCIKNTIFIC 
VMEIUCW 



Il terremoto dell'Irpinia: 
dieci anni di ricerche 

Lo studio degli effetti geologici del terremoto del 1980 e di quelli che lo 
hanno preceduto fornisce una chiave di lettura unica per la comprensione 
dei processi sismogenetici che hanno luogo nell'Appennino meridionale 



L/esempio di San Francisco indica con 
chiarezza che dalla sismologia delle so- 
glie del 2000 non ci aspettiamo scoperte 
rivoluzionarie - come pure potrebbe es- 
sere la tanto agognata capacità di preve- 
dere ristante di accadimento di futuri 
grandi terremoti - quanto piuttosto la 
progressiva chiarificazione dei processi 
che\leterminano il dove e il come essi 
avranno luogo e la probabilità che si ve- 
rifichino entro un determinato intervallo 
di tempo. 

In questo senso il terremoto del 1980. 
sia pur nella sua drammaticità, ha forni- 
to una opportunità unica per una appro- 
fondita comprensione de» processi si- 
smogenetici attivi nella nostra penisola e 
in particolare nell'Appennino meridio- 
nale. Per il fatto di essersi verificato in 
un momento di piena espansione della 
sismologia strumentale, il terremoto ha 
potuto essere studiato in modo moderno 
e completo, Il moto dei suolo indotto 
dalla scossa principale è stato registrato 
in un ampio spettro di frequenze e di- 
stanze focali, da strumenti a bassa sensi- 



bilità espressamente progettali per regi* 
strare in zona epicentrale i forti movi- 
menti del suolo e da strumenti sensibilis- 
simi sparsi in tutto il globo. Una rete 
sismometriea portatile, prontamente in- 
stallata nella regione colpita a cura di un 
consorzio di istituzioni italiane, inglesi e 
francesi, ha consentito di seguire l'evo- 
luzione del fenomeno sismico attraverso 
la registrazione e la localizzazione di mi- 
gliaia di repliche. 

La quantità di dati sismometnci resisi 
disponibili fin dai primi mesi del 1981 ha 
immediatamente qualificato il terremo* 
to del Ì980 come l'evento sismico meglio 
documentato tra quelli avvenuti in Eu- 
ropa. Uno degli aspetti di maggior inte- 
resse è stata la possibilità di osservarne 
e documentarne in maniera oggettiva gli 
esiti permanenti, in forma di modifica- 
zioni della topografia e alterazioni del 
regime delle acque di superficie e sotter- 
ranee verificatesi nella zona epicentrale > 
Il significato geodinamico di queste os- 
servazioni e la possibilità di utilizzarle 
per previsioni sull'attività sismica futura 



della regione formano appunto l'oggetto 
del nostro studio. 

La sorgente sismica e la sua descrizione 

È noto che un terremoto ha luogo 
quando un volume di roccia, sottoposto 
a tensione per effetto di una coppia di 
forze di segno opposto guidate a loro 
volta da forze tettoniche a scala conti- 
nentale, si rompe dando luogo a scorri- 
mento lungo un piano comunemente in- 
dicato come faglia. 

Il moto lungo La faglia scarica istanta- 
neamente le tensioni accumulatesi fino 
al raggiungimento del carico di rottura 
caratteristico del particolare tipo di roc- 
cia, e ristante successivo apre un nuovo 
ciclo di accumulo e rilascio. Da questo 
momento il piano di faglia originatosi nel 
primo terremoto diventerà il punto pre* 
ferenziale di rilascio degli sforzi accumu- 
lati e la sua superficie verrà a identificar- 
si in modo sempre più netto a seguito di 
ognuno degli eventi successivi. Questi 
processi hanno luogo nella porzione più 



di Enzo Boschi, Daniela Pantosti e Gianluca Valensise 



14°30E 



15° E 



15*30 E 



Sono trascorsi 10 anni da uno dei più 
disastrosi terremoti che hanno 
colpito L'Italia nel corso dell'ulti- 
mo secolo. Con una magnitudo sismica 
(M s ) di 6.9, comparabile con quelle sti- 
mate per il terremoto di Messina del 
1908 (M, 7,1) e per il terremoto di Avez- 
zano del 1915 (M y 7,0), il terremoto del 
23 novembre 1980 ha colpito duramente 
una vasta regione della Campania e del la 
Basilicata. L'area di massimo danneg- 
giamento, dove gli effetti del terremoto 
hanno raggiunto un'intensità del X gra* 
do della scala MCS (Mercalli-Cancani- 
-Sieberg), è compresa tra le alte valli dei 
fiumi Ofanto e Scie. 

Alcuni paesi completamente rasi al 
suolo, come Laviano e Gonza della 
Campania, un cospicuo numero di altri 
paesi gravemente colpiti nel cuore dei 
propri centri storici e patrimoni artistici, 
circa 3000 vittime e un enorme numero 
di feriti rappresentano il tragico bilancio 
di questo evento, Un mesto scenario che 
in questa regione dell'Appennino meri- 
dionale si è ripetuto molte volte nel cor- 
so degli ultimi 2000 anni, Eppure, para- 
dossalmente, è proprio questa tendenza 
dei grandi terremoti a ripetersi in modo 
cadenzato, negli stessi luoghi e con le 
stesse modalità, che ci consente di essere 
ottimisti sulla possibilità di difenderci 
dai terremoti di domani. 

La condizione necessaria per il rag- 
giungimento di questo obiettivo è però 
la possibilità di studiare grandi terremoti 
che permettano ai sismologi di appro- 



fondire la conoscenza della struttura in- 
terna della Terra, dei processi sismoge- 
netici e della risposta dell'ambiente alle 
sollecitazioni sismiche. Infatti, a diffe- 
renza di quanto si verifica per molte del- 
le scienze fisiche e a somiglianza di quan- 
to invece avviene per la gran parte di 
quelle geofisiche, il sismologo incontra 
enormi difficoltà anche solo nell'avvici- 
narsi all'oggetto della propria ricerca. 
Egli non può, come il suo collega fisico 
teorico, decidere un esperimento, effet- 
tuarlo in un arco di tempo conveniente 
ed eventualmente ripeterlo per mostrare 
ad altri colleglli i risultati ottenuti e ve- 
rifiearne la stabilità. Al contrario, al si- 
smologo si richiede grande tempismo e 
attitudine a trarre vantaggio dagli espe- 
rimenti a cui la Terra ci fa assistere senza 
prcawisu. e capacita di ricavare leggi dj 
validità universale dal V osservazione li- 
mitata e per lo più incompleta di feno- 
meni particolari. Cosi, mentre le altre 
scienze tìsiche hanno progredito quasi 
esclusivamente in virtù dell'intelligenza 
e della tenacia dei ricercatori, la sismo- 
logia, almeno ai suoi primordi, ha pro- 
gredito «a salti», e molte delle scoperte 
fondamentali sono state propiziate o co- 
munque legate al verificarsi di un grande 
terremoto. 

Esempi illustri sono quelli di John Mi- 
cheli che, prendendo le distanze dal- 
le tradizionali vedute dei contempora- 
nei, descrisse in termini modernamente 
scientifici gli effetti dell'immane terre- 
moto di Lisbona del 1755: di Robert 



Malie t, che, al ritorno da un viaggio di 
due mesi nelle zone colpite dal grande 
terremoto lucano del 16 dicembre 1857, 
pose i fondamenti della moderna sismo- 
logia osservativa coniando egli stesso il 
nome della nuova disciplina (dal greco 
seism ós f scuotimento e logia ^ dottrina) ; 
e di Harry Fielding Reid, che utilizzò 
osservazioni strumentali e di terreno del 
grande terremoto di San Francisco del 
1906 per elaborare la teoria étWeiastic 
reboanti (rimbalzo o riassestamento ela- 
stico), su cui è fondata la moderna de- 
scrizione della sorgente sismica. 

Oggi fortunatamente le cose sono 
cambiate, e anche se la sismologia con- 
tinua a rappresentare per molti versi la 
meno oggettiva tra le scienze fisiche, il 
numero di osservazioni e di dati raccolti 
su grandi terremoti moderni ha consen- 
tito alla comunità scientifica di elaborare 
modelli della sismogenesi che riproduco- 
no con soddisfacente approssimazione la 
realtà dei processi geologici. Tali model- 
li, per fare un esempio, hanno permesso 
a diversi gruppi di ricercatori di preve- 
dere indipendentemente i principali pa- 
rametri di sorgente, ma non ristante di 
accadimento, del terremoto che avrebbe 
colpito San Francisco e la California cen- 
trale il 18 ottobre 1989. L'accuratezza di 
questa previsione è stata tale da consen- 
tire ad amministratori e popolazione di 
identificare e adeguare le infrastrutture 
a rischio e quindi giungere sostanzial- 
mente preparati all'appuntamento con il 
terremoto. 




ti terremoto del 23 rimembri- l^Si» ha tot pilo una vasta regione 
dell* Appennino campano- lucano. Qui sono riportate le isosisme, o 
linee di ugual intensità degli efielti del terremoto, tracciate a cura 
dei ricercatori del Progetto finalizzato «Geodinamica» del CNR in 
base a una dettagliata ispezione dei danni subiti dai centri abitati, 
I talorì di intensità sono espressi nella scala MCS (Mercalli-t'an- 
cani-SieberEh I/area di massimo danneggiamento (in rosso più 
scura}, in cui si è raggiunta un'intimità del 1X*X grado della scala 
MCS, è localizzata in corrispondenza delle alle valli dei fiumi Sc4e 
e Ofanto, dove molti centri abitati sono stati totalmente distrutti e 
numerosissime sono state le vìttime. Le tonalità di colore più chiare 



nelle aree circostanti indicano zone di intensità progressivamente 
decrescente, ma ancora caratterizzate da estesi danni strutturali. 
Si noti come l'area del VII grado MCS presentì una lobatura ano- 
mala verso la penisola sorrentina e verso Napoli. In corrispondenza 
delle «isole» A e B. la prima coincidente con l'area vesuviana, la 
seconda posta nell'alta valle del fiume Calore, l'intensità raggiunta 
è stata anche di due gradi inferiore a quella dell'area in cui sono in- 
cluse. Fenomeni di questo tipo sono in genere legati alla natura della 
crosta al di sotto della zona interessata, mentre variazioni dì inten- 
sità a scala locale, per esempio tra un quartiere e l'altro dello stesso 
centro abitato* vanno ricercate nella natura delle rocce affioranti. 



1 2 le scienze n. 266, ottobre 1990 



LE SCIENZE n , 266, ottobre 1 990 13 



superficiale e fredda della crosta terre- 
stre, il cosiddetto strato smnogenetico , 
che generalmente si estende fino a 10-15 
chilometri di profondità. In condizioni 
particolari, come lungo le cosiddette zo- 
ne di subduzione, si possono avere gran- 
di terremoti a profondità di centinaia di 
chilometri ma, proprio per questa carat- 
teristica, l'impatto che tali eventi hanno 
sull'ambiente è in generale trascurabile. 



L'ipocentro, che i sismologi localizza* 
no analizzando sismogrammi registrati 
presso diversi osservatori, rappresenta 
in effetti il punto di nucleazione del pro- 
cesso di frattura, ovvero il punto da cui 
le rocce poste ai due lati della faglia ini- 
ziano a scorrere le une rispetto alle altre 
coinvolgendo una superficie progressi- 
vamente più estesa. Tuttavia un punto 
non è sufficiente a descrivere un piano. 




Innumerevoli sono i terremoti che hanno arrecato distruzioni nell'Appennino meridionale. 
La storia dell'arte, deh" urbanistica e dei grandi cambiamenti demografici dell'area com- 
presa tra l'Abruzzo e la Sicilia è scandita dal verificarsi di eventi distruttivi e dalle modi- 
ficazioni indotte da questi nella dinamica sociale. Chiese e conventi ricostruiti sulle macerie 
dei precedenti, villaggi abbandonati e ricostruiti altrove per sconvolgimenti della topogra- 
fìa e del regime delle acque* sostituzione dei toponimi a significare il taglio con il passato 
testimoniano il ruolo dei terremoti come creatori di storia se non, paradossalmente, come 
agenti di rinnovamento e progresso sociale. La rilettura dei documenti storici, principal- 
mente provenienti da archivi ecclesiastici, ha consentito di loca li /./are i principali terremoti 
storici, di valutarne le dimensioni e di studiarne gli effetti, sintetizzando te informazioni 
nel cosiddetto «catalogo sismico storico». In generale, l'attendibilità dei dati in esso ripor- 
tati cresce con le dimensioni de ir evento e decresce con l'aumentare del tempo trascorso 
dal suo verificarsi. Qui viene mostrata la localizzazione dei principati eventi riportati per 
il periodo 1000-1980 dal Catalogo dei terremoti italiani del Progetto finalizzato «Geodina- 
mica». Le dimensioni del simbolo sono proporzionali agli eventi. Questi si concentrano 
lungo una dorsale sismogenetica fondamentale che coincìde con Tasse della catena appen- 
ninica seguendo la direzione NO-SE. La Torte concentrazione spaziale di alcuni gruppi di 
terremoti fa ritenere che si tratti di eventi simili generati dalla medesima struttura. La non 
perfetta coincidenza degli epicentri può essere spiegata in alcuni casi ipotizzando che eventi 
di dimensioni intermedie possano aver interessato solo porzioni distìnte della struttura; in 
altri casi decorre tenere conto della disomogeneità delle descrizioni dì eventi avvenuti a 
secoli dì distanza. La documentazione storica, congiuntamente a dati di diversa natura, 
prevalentemente geologici e morfologici, consente di localizzare te strutture sismogenet iene 
principali lungo le quali, in questa regione dell'Appennino, si generano i grandi eventi 
sismici. Qui esse sono rappresentate da linee spesse che indicano l'intersezione del piano 
di faglia con la superfìcie topografica. Lungo tale piano ha luogo la rottura che genera il 
terremoto e che si propaga dall'ipocentro fino» in condizioni favorevoli, alta superficie. 



e dunque Tinformazione sui parametri 
ipocentrali è solo il primo passo nell'in- 
dagine dell'evoluzione di tale processo. 

Da un punto di vista sismografia), il 
passo successivo è in genere rappresen- 
tato dallo studio dell' orientazione nello 
spazio del piano di faglia e del senso del- 
lo scorrimento relativo lungo di esso o, 
in altre parole, della meccanica focale 
del terremoto. Come Reid osservò luci- 
damente dopo il terremoto del 1906, 
ogni punto della regione circostante l'i- 
pocentro del terremoto registra lo «scat- 
to» rappresentato dai lo scorrimento del- 
le rocce che si fronteggiano ai due lati 
della faglia come un impulso che tende 
a comprimere o a rarefare i materiali co- 
stituenti la porzione più superficiale del- 
la crosta. La distribuzione dei volumi di 
roccia in compressione o rarefazione è 
funzione della posizione rispetto alla fa- 
glia secondo le leggi fondamentali della 
meccanica, Da ciò consegue che, dispo- 
nendo di un certo numero di sismogram- 
mi registrati secondo azimut diversi ri- 
spetto all'ipocentro del terremoto, è 
possibile identificare ia geometria del 
piano di faglia e il senso del movimento 
verificatosi lungo di esso, e in ultima 
analisi comprendere la dinamica degli 
sfora tettonici in atto. 

In regioni oggi sottoposte a estensio- 
ne, come la zona del rift del Mar Rosso 
o come il nostro Appennino centrome- 
ridionale, i terremoti più grandi hanno 
luogo lungo faglie distensive (o «norma- 
li»). In regioni sottoposte a compressio- 
ne e raccorciamento. come nell'area del- 
THimalaya per effetto della spinta in 
senso meridiano impressa dal subconti- 
nente indiano, i terremoti più grandi di- 
mostrano la tendenza di un volume a 
sormontare quello a esso adiacente lun- 
go faglie che, per contrapposizione alle 
precedenti, vengono definite «inverse». 
Infine, laddove grandi zolle crostali scor- 
rono le une vicine alle altre senza signi- 
ficative variazioni della quota relativa, 
come lungo la grande P-aglìa di San An- 
dreas in California o lungo la Faglia ana- 
toliea in Turchia, si avranno faglie «tra- 
scorrenti». Nella realtà fisica le faglie, 
rispondendo alla somma di sfarzi di di- 
versa orientazione e intensità, si muove- 
ranno secondo una combinazione degli 
stili descritti, per esempio con una mo- 
desta componente inversa associata a 
una cospicua componente orizzontale 
come durante il recente terremoto di 
San Francisco. 

La conoscenza della geometria del 
piano di faglia, della sua localizzatone 
e della direzione del movimento relativo 
lungo di esso rappresenta il fondamento 
della descrizione del terremoto sotto il 
profilo geodinamico. Tuttavia due a- 
spetti fondamentali - la quantità di e^ 
nergia emessa dalla sorgente e le moda- 
lità della sua liberazione - devono anco- 
ra essere esplorati prima che le cono- 
scenze accumulate possano essere utiliz- 
zate nella pratica per creare una model- 
listica di eventi futuri. Entrambi questi 



aspetti sono intimamente legati alle di- 
mensioni del piano di faglia associato a 
un dato terremoto e all'entità dello scor- 
rimento che vi ha avuto luogo. Queste 
grandezze vengono combinate linear- 
mente in una grandezza scalare la cui 
denominazione, «momento sismico», ri- 
chiama alla mente razione delle due for- 
ze di segno opposto che determinano il 
terremoto. Essa va a integrare i tradizio- 
nali indicatori delle dimensioni di un ter- 
remoto quali l'intensità, ovvero la valu- 
tazione degli effetti dello scuotimento 
sulle cose e sulle persone, e la magnitu- 
do, una grandezza proporzionale all'am- 
piezza sul sismogramma di particolari 
onde irraggiate dalla sorgente sismica. 

La valutazione oggettiva della gravità 
di un terremoto è stata per secoli il pro- 
blema fondamentale dell'osservazione 
sismologica. La storia riporta che, a se- 
guito del grande terremoto della Capita- 
nata dei 1627, venne tracciata la prima 
carta isosismica, una mappa in cui le lo- 
calità che avevano sofferto un ugual nu- 
mero di crolli o di vittime venivano unite 
fra loro a formare aree circolari di ugual 
scuotimento. Il tempo e la disponibilità 
di osservazioni strumentali hanno reso il 
problema progressivamente più com- 
plesso e sfaccettato, ma peri nostri scopi 
basterà accettare il fatto che né la ma- 
gnitudo, troppo strettamente legata alle 
condizioni sperimentali in cui ha luogo 
la misurazione, né tanto meno l'intensi- 
tà, influenzata da fattori geografici e so- 
ciali del tutto indipendenti dal fenomeno 
sismico, vengono oggi ritenute indicatori 
fedeli delle reali dimensioni di un terre- 
moto. Quindi, anche se queste grandez- 
ze non possono essere abbandonate in 
quanto riferimento imprescindibile per 
studiare la sismicità del passato, esse so- 
no in corso di progressiva sostituzione in 
favore del momento sismico, il cui signi- 
ficato fisico e la cui oggettività meglio 
si prestano a una descrizione moderna 
e completa della sorgente di un grande 
terremoto. 

Grandi terremoti 

e deformazioni cromili 

Questa breve digressione sui modi per 
stimare le dimensioni di un terremoto ci 
fornisce lo spunto per focalizzare l'atten- 
zione su un aspetto del fenomeno sismi- 
co fino a oggi alquanto poco esplorato; 
il rapporto che intercorre tra il terremo- 
to visto come fenomeno transitorio e 
istantaneo, le dimensioni fisiche del vo- 
lume di roccia che, rompendosi, deter- 
mina l'evento e l'evoluzione della geolo- 
gia e topografia nella regione che dall'e- 
vento è interessata. Ma per rendere chia- 
ra la portata di questo tema è necessario 
fare un passo indietro. 

Ancora ai primordi dell'umanità, il 
terremoto veniva considerato esclusiva- 
mente per ì suoi effetti materiali, e l'idea 
di castigo divino spesso implicita nelle 
stragi e distruzioni prodotte da eventi si- 
smici del passato ha per lungo tempo 



STRATO A COMPORTAMENTO 
PREVALENTEMENTE FRAGILE 

STRATO A COMPORTAMÉNTO 

PREVALENTEMENTE PLASTICO 




FAGUA INVERSA FAGUA TRASCORRENTE FAGLIA DIRETTA 






Un terremoto ha luogo quando un volume di roccia, sottoposto a tensione, si rompe dando 
luogo a scorrimento relativo lungo un piano di debolezza, detto piano di faglia. Questi 
processi avvengono nella porzione più superficiale e fredda della crosta terrestre, il cosid- 
detto «strato sismoge nerico», il cui spessore è generalmente dì 10-15 chilometri. La rottu- 
ra ha inizio nell'ipocentro (asterisco) e si propaga lungo il piano di taglia, consentendo in 
tal modo io scorrimento relativo dei due lembi della faglia. La geometria delta faglia e il 
senso del movimento lungo di essa saranno determinati dalla combinazione di sforai tetto- 
nici a carattere locale e regionale. La figura sintetizza anche le tre classi fondamentali in 
cui le faglie vengono suddivise in relazione al tipo di movimento che ha luogo liinj>n di vs*v. 



prevenuto anche gli eruditi dal dare al 
fenomeno una spiegazione fisica com- 
plessiva. Superati gli ostacoli di natura, 
per cosi dire, trascendentale, nel secolo 
scorso La scienza ha cominciato a descri- 
vere la fisica di vari aspetti del fenomeno 
sismico, dalla velocità di propagazione 
delie onde all'attenuazione del moto del 
suolo con La distanza dal fuoco, ma sem- 
pre guardando al terremoto come even- 
to unico e isolato. Finalmente, dalla 
combinazione della grandiosità dei feno- 
meni naturali nei neocolonizzati territori 
dell'Ovest degli Stati Uniti con la genia- 
lità di Grove Karl Gilbert, acuto natura- 
lista e geografo, sarebbero nate le pre- 
messe per dare al terremoto il suo vero 
posto nell'ambito della storia del piane- 
ta. Nel 1884, visitando le zone disastrate 
da un terremoto di magnitudo 7,6 che 12 
anni prima aveva colpito la Owens Val- 
iey (al confine tra California e Nevada), 
egli annotò che « . . . le montagne cresco- 
no a poco a poco, . . formando come una 
piccola scogliera che i geologi conoscono 
come scarpata di faglia... . Momenti di 
coesione e di slittamento caratterizzano 
questa crescita... .Ci sono zone dove le 
scarpate chiaramente mancano, la de- 
formazione aumenta lentamente, e un 
giorno essa vincerà la frizione, innalzerà 



le montagne di alcuni piedi e ripeterà su 
una scala ancora più terrificante la cata- 
strofe di Owens Valley... ». 

Anche se il linguaggio di Gilbert può 
apparire a tratti enigmatico, le sue osser- 
vazioni testimoniano la lucidissima intui- 
zione di un processo, semplice e grandio- 
so nello stesso tempo, che può essere 
riassunto in alcuni brevi punti. Innanzi- 
tutto, la sorgente di un grande terremoto 
non è rappresentabile come un punto, 
ma ha dimensioni fisiche valutabili nel- 
l'ordine dei chilometri o decine di chilo- 
metri. Per eventi di magnitudo superiore 
a 6,5 queste dimensioni sono tali da co- 
involgere lo strato sismogenetico nella 
sua interezza: in queste condizioni il pia- 
no di faglia giunge a intersecare la super- 
ficie topografica determinando la forma- 
zione di uno scalino nel terreno, indicato 
come «scarpata di faglia», il cui anda- 
mento rispecchia la geometria del feno- 
meno che ha luogo in profondità. Se la 
faglia ha carattere predominante norma- 
le o inverso, ia scarpata rappresenta an- 
che il confine tra una regione della crosta 
che è stata sollevata dal terremoto e una 
che. almeno relativamente alla prima, è 
sprofondata. Come è confermato da nu- 
merosi esempi e giustificato dai punto di 
vista teorico, questa alterazione della to- 



1 4 le scienze n. 266, ottobre 1990 



LE scienze n. 266, ottobre 1990 15 



pografiaè in larga misura permanente e, 
anche se la scarpata viene in genere ra- 
pidamente demolita dall'azione degli 
agenti erosivi, la differenza di quota tra 
i due lati della faglia resta e può essere 
documentata attraverso semplici misu- 
razioni di livellazione geodetica. 

La ripetizione di terremoti come quel- 
lo che ha prodotto la scarpata, ognuno 
dei quali libererà le tensioni progressiva- 
mente accumulale a partire dall'evento 
precedente, determinerà la progressiva 
identificazione di una topografia con val- 
li e dorsali, a cui si sovrimporrà un re- 
ticolo fluviale progressivamente più atti- 
vo con l'aumentare del contrasto ahimè- 
trico. Ripetendo per un migliaio di volte 



15* E 



un evento in grado di produrre una scar- 
pata alta un metro si costruirà una topo- 
grafia che, pur tenendo conto dell'ero- 
sione delle creste montuose e del paral- 
lelo colmamente dei solchi vallivi adia- 
centi, sarà caratterizzata da un contra- 
sto di 600-700 metri, un valore parago- 
nabile a quello che si osserva nei set- 
tori a più elevata sismicità del bacino 
mediterraneo. 

Le osservazioni di Gilbert hanno in- 
fluenzato in modo decisivo gli studi si- 
smologici di terreno degli anni successi- 
vi. Il semplice processo da lui intuito e 
da noi sinteticamente descritto è stato 
esplorato in vari aspetti di dettaglio, e i 
suoi fondamenti ripetutamente verificati 



t 



40*42 N 



A 




10 



- 20 

km 




CHILOMETRI 



LI terremoto del 23 novembre 1980 ha avuto magnitudo 6,9. Il suo ipocentro è stato lo* 
vìi lizzato a 40 gradi e 46 primi di latitudine nord, 15 gradi e 20 primi di longitudine est e 
a una profondità di 12-14 chilometri. L'epicentro, ovvero la proiezione in superfìcie del* 
l'ipocentro (indicato dall'asterisco)., ricade presso l'abitato di La viario, ano dei centri più 
colpiti. Il terremoto è stato generato da un regime tei tonico che produce estensione in dire* 
zinne ortogonale alla faglia. A partire dall' ipocentro la rottura si è propagata lungo il piano 
di faglia, che è risultato composto di quattro frammenti, per una lunghezza totale (ti circa 
50 chilometri. La proiezione in superficie di tali frammenti è rappresentala dalle aree 
ombreggiate. Per ognuno di questi frammenti, a eccezione dì quello localizzato a nord-est 
(k- II' epicentri i, lo scorrimento in profondità si è manifestato in superfìcie come una scarpata 
dì faglia (in tratto spesso con i dentini che indicano il Imo ribassalo) la cui altezza arriva 
anche a un metro. La sezione in basso a sinistra mostra la geometria della struttura in 
profondità. Nei mesi successivi al terremoto migliaia di altre scosse di assestamento, solo 
in parte avvertibili dalla popolazione, hanno interessato l'area e pìceo* rate Un colore). Oltre 
alla scarpata di faglia, lo scorrimento ha prodotto variazioni altimelriche permanenti 
dell'ordine delle decine di centimetri in una regione di quasi limo chilometri quadrati. 
Dalla distribuzione di queste deformazioni è possibile localizzare ì frammenti di faglia, 
individuarne la geometria e valutare l'entità dello scorrimento che il terremoto ha deter* 
minato lungo ognuno di essi. Le isotinee quantificano la variazione di quota (in metri) che 
ci si può attendere dal modello di filiazione così elaborato. 11 complesso delle osservazioni 
di superficie consente dì esprimere le dimensioni dell'evento in termini di momento sismico. 
Moltiplicando Parca complessiva della faglia per l'entità media dello scorrimento e per il 
modulo medio dì rigidità delle rocce nella regione si ottiene così un valore di 1,8 X IO 2 * 
dyne per centimetro, che è in buon accordo con le stime ottenute per via sismom etnea. 



e corroborati da osservazioni provenien- 
ti da varie parti del mondo. 

La comprensione dei meccanismi che 
controllano 1 evoluzione della geologia e 
della topografia in una regione a elevata 
attività tettonica fornisce alle scienze 
della Terra uno di quegli strumenti di cui 
i geologi hanno bisogno per comprende- 
re eventi verificatisi in un passato molto 
più remoto e registrati da rocce antichis- 
sime. Ma soprattutto, e su questo aspet- 
to focalizzeremo la nostra attenzione, le 
intuizioni di Gilbert hanno aperto la 
strada allo studio dell'attività sismica 
presente, passata e forse futura, median- 
te gli strumenti della classica geologia di 
superficie. 

L enorme potenziale di questi stru- 
menti è divenuto particolarmente chiaro 
nell'ambito del grande tema rappresen- 
tato dalla valutazione del rischio sismico 
associato a una regione, a un insedia- 
mento o a grandi opere civili quali ponti, 
dighe, centrali elettriche. Per fare un 
esempio, in particolari condizioni geolo- 
giche e climatiche, come quelle che si 
verificano normalmente negli Stati Uniti 
occidentali, il rilevamento di dettaglio di 
scarpate di faglia e di fenomeni di alte- 
razione della topografia a esse associati 
ha consentito di valutare con successo il 
potenziale sismogenetico di regioni abi- 
tate da un tempo troppo breve per con- 
sentire ridentificazione per via storica 
delle sorgenti sismiche attive, I risultati 
di queste ricerche hanno permesso a loro 
volta di valutare l'estensione delle aree 
ad alto rischio prescindendo da alcune 
delle principali limitazioni e ambiguità 
interpretative che caratterizzano i dati 
sulla sismicità storica. 

Probabilmente, il più brillante tra i ri- 
sultati conseguiti nello studio dei grandi 
terremoti attraverso l'approccio geologi- 
co è Faver constatato che essi hanno una 
fondamentale tendenza a replicare se 
stessi lungo le medesime faglie. Questa 
constatazione, verificata ormai in tutte 
le ambientazioni tettoniche conosciute, 
implica che gli stessi segmenti di più este- 
se strutture sismogen etiche tenderanno 
a rompersi ripetutamente dando luogo a 
uno scorrimento di entità pressoché" co- 
stante, che i confini tra un segmento e 
il successivo rimarranno stazionari nel 
tempo e che. come logica conseguenza 
del fatto che alla scala dei millenni Èa 
velocità dei grandi movimenti tettonici 
può essere assunta costante, i terremo- 
ti così generati tenderanno a ricorre- 
re con regolarità. La teoria del «terre- 
moto caratteristico», sviluppata da Da- 
vid Schwartz dello US Geologica! Sur- 
vey e da Kevin Coppersmith. oggi con- 
sulente per la Geomatrix di San Franci- 
sco, sulla base di questa constatazione, 
ha quindi come obiettivo fondamentale 
il riconoscimento di un terremoto «cam- 
pione» per ogni segmento di una speci- 
fica struttura sìsmogenetiea, I caratteri 
di questo campione costituiscono la mi- 
glior previsione possibi le sui caratteri del 
prossimo grande evento generato lungo 



tale segmento. Inoltre l'individuazione 
di terremoti caratteristici avvenuti lungo 
segmenti adiacenti a quello a cui si è in- 
teressati potrà portare a valutazioni sod- 
disfacenti anche in condizioni di scarsità 
o totale assenza di informazione, sìa slo- 
rica sia geologica. E ancora, e questo 
rappresenta forse l'aspetto di interes- 
se pratico più immediatamente com- 
prensibile, l'assunzione di regolarità del- 
la comparsa dei terremoti caratteristici 
implica che, una volta determinato l'in- 
tervallo di tempo che mediamente inter- 
corre tra due eventi simili successivi 
(detto «tempo di ricorrenza»), saremo in 
grado di esprimere valutazioni non solo 
sul dove e sul come, ma anche sul quan- 
do si verificherà il prossimo terremoto 
catastrofico. 

Tuttavia, il coinvolgimento del fattore 
tempo sembra andare oltre le possibilità 
dell'osservazione geologica di terreno. 
Come già Gilbert aveva notato chiara- 
mente, per costruire una topografia che 
risalti con evidenza all'occhio del geolo- 
go sono necessari molti terremoti in un 
arco di tempo la cui durata è molto dif- 
ficile da valutare. Anche conoscendo 
con precisione Tela delle rocce costitu- 
enti una dorsale montuosa che sappiamo 
essere stata generata dall'attività di una 
faglia ben individuata, nella maggior 
parte dei casi ci accorgeremo che esse 
presentano tracce di cicli di deformazio- 
ne ormai estinti e che pertanto sono mol- 
to più antiche dei fenomeni deformativi 
a cui assistiamo oggi. Né potrebbe essere 
d'aiuto lo studio della velocità con cui la 
dorsale viene smantellata dai processi 
erosivi, per l'enorme variabilità e dipen* 
denza da fattori climatici transitori a cui 
questi sono soggetti. Così, dopo molti 
decenni durante ì quali numerose faglie 
attive erano state accuratamente carto- 
grafate e descritte con cognizioni larga- 
mente approssimative dell'andamento 
nei tempo degli eventi sismici, gli ultimi 
20 anni hanno visto raffermarsi di una 
nuova disciplina che, imponendo strin- 
genti vincoli cronologici ai processi na- 
turali fino a ora descritti, rende final- 
mente quantitative le osservazioni di 
Gilbert e dei suoi successori. 

La pateosismologia 

Questa disciplina, a cui è stato impo- 
sto il nome di «pateosìsmologia*, o 
scienza dei terremoti antichi, utilizza la 
«lettura geologica» degli eventi sismici 
come chiave di interpretazione per la 
comprensione di quelli futuri. Essa ha 
ricevuto un forte impulso negli Stati 
Uniti e in Giappone a partire dall'inizio 
degli anni settanta, in relazione alla cre- 
scente esigenza di valutare con confiden- 
za il rischio sismico legato a una veloce 
urbanizzazione e alia progettazione di 
grandi opere dì ingegneria civile. In par- 
ticolari regioni la combinazione della as- 
soluta mancanza di osservazioni storiche 
con l'aridità del clima e con lo scarso 
grado di urbanizzazione, elementi questi 




Le faglie che vengono attivate durante ì terremoti più grandi, per esempio tutti quelli dì 
magnitudo superiore a 6,5, hanno dimensioni tali da coinvolgere interamente lo strato 
sismogenetico, giungendo a interessare la superficie topografica. L'emergenza in superficie 
del piano di faglia determina la formazione dì una scarpata di faglia, che riflette in pieno 
la geometria e la dinamica del fenomeno che ha luogo in profondita. Il terremoto del 23 
novembre 1980 ha prodotto una scarpata con orientazione NO -SE ed estesa per quasi 4l> 
chilometri tra Lioni e il Pantano di San Gregorio Magno, La scarpata mostra una sostan- 
ziale continuità ed è interrotta solo per due brevi tratti in corrispondenza della valle del 
Seie e poco a nord dì San Gregorio Magno. Queste interruzioni marcano in superficie * 
confini dei frammenti in cui è suddivisa la faglia principale [si veda l 1 lustrazione nella 
pagina a fronte |> Nella fotografia è ripreso un tratto della scarpata che si trova in prossimità 
dell'epicentro; in questo vettore essa raggiunge l'altezza di un metro. La scarpata è V indizio 
più evidente delle deformazioni permanenti che il terremoto produce sulla superficie ter- 
restre. Ben presto ì processi erosivi smantelleranno il bordo della scarpata e accumuleranno 
sedimenti al suo piede* tendendo cosi a ripristinare l'originario equilibrio topografico. 
Dopo un tempo più o meno lungo, in relazione alle condizioni climatiche locali e alla natura 
dei terreni interessati, la scarpata verrà completamente ricoperta da depositi più recenti, 
ma le deformazioni prodotte dal terremoto saranno ancora ben conservate nel sottosuolo. 



16 le scienze n. 266, ottobre 1990 



LE scienze n, 266, ottobre 1990 17 




Gli studi paleosismologici si effettuano in genere aprendo trincee attraverso scarpate di 
faglia. Tali scavi hanno profondità e larghezza debordine di tre -qua Uro metri e lunghezze 
da una decina ad alcune decine di metri. Nella fotografia è ripresa una delle trincee aperte 
lungo la scarpata di faglia prodotta dal terremoto de! 23 novembre 1980, riconoscibile 
ancora oggi come una debole inflessione del terreno {frecce). I*a zona più vicina al fotografo 
appare ribassata rispetto a quella sullo sfondo- Sulla parete della trincea, in corrispondenza 
delta scarpata del 1980, si osserva una chiara zona di deformazione in cui è riconoscibile 
un'inflessione simile a quella in superfìcie, ma più marcata, Questa zona ha registrato gli 
effetti di ^antenati» del terremoto del 1980 che, come quest'ultimo, avevano prodotto una 
scarpata di faglia alta alcune decine di centimetri. 1 /altera/ione della morfologia del Pia- 
no di Pecore conseguente alla formazione di una scarpata doveva influenzare profonda- 
mente la successiva sedimentazione* come suggerito dal diverso spessore degli orizzonti 
sui due lati della zona di deformazione (si veda F illustrazione alle pagine 20 e 21 in aita)* 



ultimi che favoriscono la conservazione 
dei fenomeni tettonici di superficie, ha 
indirizzato in modo decisivo la ricerca 
verso la nuova disciplina. 

Decine di faglie sono state già studiate 
in California, nel Nevada, nello Utah, 
consentendo di creare ex novo un cata- 
logo sismico in regioni in cui la coloniz- 
zazione ba solo 150 anni di vita, Ma an- 
che in regioni dotate di una storia più 
estesa, come nei bacino del Mediterra- 
neo, la paleosismologia riveste un ruolo 
fondamentale nel l'estendere a 11 "indietro 



e rafforzare cataloghi sospetti di scarsa 
attendibilità palesemente incompleti. 
Si consideri, infatti, che il tempo di ri- 
correnza caratteristico di numerose fa- 
glie è dell'ordine di molti secoli o di mi- 
gliaia di anni , e che per molivi facilmente 
Intuibili le dimensioni dei terremoti ten- 
dono a essere inversamente proporzio- 
nali alla loro frequenza, Ciò implica che 
alcuni cataloghi, spesso nella preoccu- 
pante inconsapevolezza di chi in seguito 
li usa per stime di rischio sismico, con- 
tengono solo occasionalmente i terre- 



moti più grandi che possono aver luogo 
lungo le faglie della regione a cui sì rife- 
riscono» e vengono invece per lo più ri- 
empiti da eventi minori a breve periodo 
di ricorrenza. 

Anche se oggi esistono vari metodi per 
l'identificazione e la datazione di grandi 
terremoti del passato, quello più diretto 
e intuitivo sì basa sullo studio dei proces- 
si di alterazione della topografia che 
hanno luogo durante e a seguito di un 
grande terremoto. La deformazione le- 
gata allo scorrimento lungo la faglia si- 
smogenetica interesserà i depositi sotto- 
stanti la superficie sotto forma di dislo- 
cazione, mentre i depositi in corso di se- 
dimentazione registreranno l'evento co- 
me brusca alterazione dell'equilibrio del 
normale ciclo sedimentario di erosione- 
-deposizione. Gli effetti dei processi in- 
nescati da questa condizione di instabi- 
lità costituiranno, assieme alla scarpata 
stessa, gli elementi della registrazione 
geologica del terremoto- In condizioni 
favorevoli tali effetti verranno preservati 
attraverso il seppellimento da pane di 
depositi più recenti, e potranno quindi 
essere messi in luce da appositi scavi a 
trincea le cui pareti «racconteranno» la 
storia geologica recente del sito. 

La datazione di orizzonti ricchi in so- 
stanze organiche posti nell'ambito di de- 
positi di specifico significato sedimento- 
logico consentirà di creare un quadro 
cronologico di riferimento per i pa- 
leoterremoti riconosciuti Per esempio, 
Tetà della parte alta dello strato sedi- 
mentario su cui si sono accumulati i de- 
triti della scarpata, strato che costituiva 
la superficie topografica fino al verificar- 
si del terremoto, potrà intuitivamente 
essere assunta come di poco anteriore 
all'età del terremoto stesso. Analoga- 
mente, la datazione dei più bassi tra i 
depositi creati dal disfacimento della 
scarpata vincolerà un'età minima, per- 
mettendo quindi di circoscrivere il veri- 
ficarsi del paleoterremoto entro un in- 
tervallo cronologico ristretto. Per gli 
scopi pratici, questa informazione si ac- 
compagnerà alle valutazioni sulle di- 
mensioni del terremoto, che saranno 
state ricavate sulla base dell'estensione 
e dell'altezza della scarpata. 

Tuttavia, anche se i\ ritrovamento e la 
datazione di chiare registrazioni geolo- 
giche di un paleoterremoto rappresenta- 
no già un risultato considerevole, T infor- 
mazione ottenuta non è ancora sufficien- 
te a stabilire se esso sia o meno caratte- 
ristico per quella faglia, ovvero se possa- 
no verificarsene di più grandi, e a stima- 
re il relativo tempo di ricorrenza, Si ren- 
de quindi opportuno individuare siti in 
cui sia possibile mettere in luce deforma- 
zioni legate ad almeno due paleoterre- 
moti. La congruenza tra le deformazioni 
prodotte in superficie dai due eventi av- 
valorerà l'ipotesi che essi siano caratte- 
ristici, mentre il tempo intercorso tra di 
essi, o la media tra i diversi intervalli nel 
caso si siano osservati numerosi eventi, 
darà il tempo di ricorrenza cercato. Qua- 




Le trincee di Piano di Pecore hanno messo in luce una successione 
di depositi lacustri intercalati a depositi colluviali di ambiente sub- 
aereo provenienti dal disfacimento delle rocce che affiorano sui 
rilievi circostanti, I primi, contraddistinti da varie tonalità di gri- 
gio, sono costituiti prevalentemente da sabbie {più scure) e argille 
ipiù chiare i ben stratificate, di orìgine per lo più vulcanica. Questa 
origine non deve sorprendere, in quanto le cronache storiche ripor- 
tano con frequenza la caduta di ceneri e sabbioni piroclastici in rela- 
zione ai principali episodi del vulcanismo vesuviano e flegreo. Que- 
sti depositi indicano, quindi, che almeno in alcune fasi della sua 
storia Piano di Pecore ospitava un lago, e che in esso confluivano 



trasportate dalle acque meteoriche le ceneri deposte sui rilievi cir- 
costanti, E livelli colluviali, riconoscibili per il colore marrone ocra- 
ceo, identificano invece periodi in cui il bacino, come avviene oggi* 
ospitava una palude il cui fondo veniva tappezzato da materiali ve- 
getali in decomposizione. La datazione radiometrica di frammenti 
legnosi, più frequenti negli intervalli lacustri, odi livelli carboni osi. 
caratteristici degli intervalli palustri, ha consentito di inquadrare 
gli orizzonti incontrati nello scavo in un riferimento cronologico 
assoluto. Ciò ha indirettamente consentito di datarne l'epoca dì 
deposizione e quindi, in ultima analisi, di datare i più recenti ter- 
remoti che hanno prodotto una scarpata di faglia a Piano di Pecore, 



lora questo risulti più breve del tempo 
già trascorso dall'ultimo terremoto ci 
troveremo di fronte a una tipica lacuna 
sismica; a questo punto il buon senso ci 
guiderà nel prendere le necessarie misu- 
re e precauzioni di carattere amministra- 
tivo, nonché nell'atti vare ricerche geofi- 
si cb e mirate al rilevamento di eventuali 
precursori sismici entro un'area geogra- 
fica ormai ben delimitata, 

& identificazione di faglie attive 
n eU'Appen nìn o meridionale 

Nell'area mediterranea lo studio dei 
terremoti del passato e le valutazioni di 
pericolosità sismica sono stati fino a oggi 
principalmente basati sulla disponibilità 
di un cospicuo, e in larga misura unico, 
patrimonio dì documenti e testimonian- 
ze storiche. L'analisi di questa enorme 
mole di informazioni, di cui i cataloghi 



rappresentano solo una sintesi, ha com- 
portato la messa a punto di strumenti di 
indagine statistica estremamente com- 
plessi ed evoluti. Viceversa, le ricerche 
basate sull'osservazione di indizi di su- 
perficie del regime tettonico oggi attivo 
hanno segnato il passo, principalmente 
a causa delle difficoltà sorte nelfindivi- 
duare tali indizi e ne ir associarli ai veri- 
ficarsi di grandi terremoti storici. 

La penisola italiana è nota agli studiosi 
di scienze della Terra di lutto il mondo 
per la complessità della sua struttura 
geologica. La conseguente difficoltà con 
cui la deformazione che ha luogo nello 
strato sìsmogenetico si propaga in super- 
liei e potrebbe rappresentare una spiega- 
zione della scarsa evidenza delle faglie 
attive. Una ulteriore spiegazione po- 
trebbe essere rappresentata dall'influen- 
za degli agenti esogeni, che in un clima 
umido come quello delle zone interne 



della penisola possono obliterare rapida- 
mente deboli modificazioni della super- 
ficie topografica legate ad attività tetto- 
nica. Sulla base di questi elementi si po- 
trebbe giungere a ritenere che nella no- 
stra penisola, e in generale in tutta l'area 
mediterranea, solo eventi catastrofici 
come quello del 1980 siano in grado di 
produrre effetti di superficie tali da con- 
sentire l'avvio di tutte le ricerche che su 
di essi sono basate. 

Negli ultimi anni, tuttavia, è apparso 
chiaro che. anche se questa conclusione 
è sostanzialmente corretta, la sua giusti- 
ficazione nei termini sopra espressi non 
lo è, ed è quindi necessario ripensare 
dalle radici tutto il problema. II confron- 
to tra la scarpata di faglia prodotta dal 
terremoto dei 1 980 e le scarpate descritte 
da Gilbert prima, e l'esperienza diretta 
di terreno effettuata sulle sue orme do- 
po, ci hanno finalmente indicato la stra- 



18 le scienze n. 266, ottobre 19% 



LE SCIENZE n. 266, ottobre 1990 19 



M-M-M-M-M-l-l-M-l-l-T. 




T-T-l-l-HH-FTfe 




?ei-mh-i-i-m-i- 



P]ANO DI PECORE: 

PROCESSI DI SBARRAMENTO 
E ALLUVIONAMENTO 



jL-i-l-J-L-M-l-'Mg' 




TERREMOTO 1 



SEDIMENTAZIONE LACUSTRE 



TERREMOTO 2 



La formazione di una scarpata di faglia altera notevolmente l'equi- 
librio morfologico*, innescando processi di erosione e deposizione 
che tendono a ristabilire l'equilibrio di partenza. Le Torme erosive 
e i depositi così prodotti costituiscono, con la scarpata di faglia, le 



«registrazioni geologiche» degli eventi sismici del passato. Lo studio 
delle trincee di Piano di Pecore ha mostrato come l'evoluzione del 
bacino possa essere il risultato delia ripetizione del seguente ciclo: 
un primo terremoto provoca ia formazione di una soglia nella zona 



dì sbocco del drenaggio del Piano modificando la topografia, inter- 
rompendo il normale deflusso e determinando ralluvionamento del 
bacino, che si trasforma in un lago. La sedimentazione lacustre 
porta gradualmente al colmarmelo della depressione e, quando lo 



spessore dei depositi raggiunge rattezza della scarpata, viene a 
interessare anche una parte della zona di soglia fino alla restaura- 
zione di una topografia pianeggiante e alla conseguente riapertura 
del drenaggio. Il terremoto successivo dà inizio a un nuovo ciclo. 



SCARPATA DI FAGLIA DEL 1 980 




METRI 



Elaborando graficamente le osservazioni effettuate sulle pareti del- 
le trincee è stato possibile riconoscere le deformazioni e Ì depositi 
associati a quattro terremoti precedenti quello del 1980 e a esso 
molto simili. Per ciascun evento è stata valutata l'entità della de- 
formazione ed è stato delimitato un intervallo cronologico. Nell'il- 
lustrazione è rappresentata la sezione semplificata della trincea; di- 



versi colori differenziano i depositi di origine lacustre (c % d 1m f) dai 
depositi colluviali {a<b*e*gh mentre a tratto spesso sono riportate 
faglie e fratture, 1 numeri in neretto identificano gli eventi sismici 
che possono essere «ietti» nella trincea; il profilo in corrispondenza 
dì ciascun numero rappresenta la traccia della superficie topogra- 
fica al tempo del terremoto stesso. Tale superficie è stata deformata 



anche da tutti gli eventi successivi cosicché* se si confronta il disli- 
vello esìstente tra i due lati della faglia per le diverse superficie si 
nota, per esempio, che esso risulta circa il doppio per la superficie 
2 in rapporto alla 1. Il dislivello aumenta verso il basso, in accordo 
con la semplice osservazione che depositi più antichi hanno regi- 
strato più eventi sismici. Dalla trincea sono stati prelevali alcuni 



campioni di materiale carbonioso che sono stati datati con il metodo 
del carbonio 14, Per ogni campione è stata ottenuta un'età (ripor- 
tata nel livello cui si riferisce) la cui precisione di misura è stimata 
in SO anni. La datazione del primo orizzonte deformato da un even- 
to e del primo non deformato immediatamente superiore consente 
di determinare i limiti cronologici entro cui l'evento ha avuto luogo. 



da per risolvere questo dilemma. Infatti, 
per quale ragione sui versanti dell'Ap- 
pennino non osserviamo quello che ap- 
parve a Gilbert durante le sue indagini 
sulla Sierra Ne vada e sulle Montagne 
Rocciose? Perché la scarpata di faglia 
non si manifesta alla base del versante 
montuoso, come da lui descrìtto, ma lo 
taglia a metà, come è avvenuto nel corso 
del terremoto del 1980? Certamente gli 
sforzi tettonici cambiano nel tempo e, 
anche se un medesimo regime può per- 
manere per milioni di anni, prima o poi 
si esaurirà cedendo il passo a un regime 
diverso. E cosi, mentre Gilbert descrive- 
va qualcosa che agisce da almeno 10 mi- 
lioni di anni e che è oggi nel pieno del- 
la sua maturità, noi assistiamo ai primi 
passi di un regime tettonico che sta su- 



bentrando a uno del tutto differente. 
Naturalmente, il nuovo regime non 
sta modellando una superficie piatta, 
bensì una regione corrugata da immensi 
sforzi compressivi e oggi caratterizzata 
da profondi contrasti geologici e topo- 
grafici- La scarpata che taglia in due un 
gruppo montuoso esemplifica e anticipa 
quello che sarà il panorama futuro del- 
l'Appennino meridionale: dove erano 
valli e depressioni compariranno dorsali 
montuose* i vecchi rilievi scompariranno 
per fazione combinata dell'erosione e 
della dislocazione tettonica, il retìcolo 
idrografico verrà stravolto e ridisegnato. 
Ma tutto questo richiederà tempo e, 
mentre noi assisteremo al progressivo 
imporsi del nuovo regime tettonico, le 
faglie sismogenetiche resteranno subdo- 



lamente nascoste in mezzo alla moltitu- 
dine delle faglie ormai inattive, a meno 
che un terremoto come quello del 1980 
non giunga a rivelarne la posizione. 

Così descritto, il momento geologico 
che l'Appennino meridionale sta attra- 
versando ci appare assolutamente unico, 
e la possibilità di testimoniarlo entusia- 
smante, Tuttavia, le implicazioni di que- 
sto stato di cose costituiscono motivo di 
seria preoccupazione per i sismologi. 
Come si diceva, le faglie che hanno ge- 
nerato terremoti disastrosi come quelli 
del 1456, del 1688, del 1694, del 1732, 
del 1857 non hanno una espressione su- 
perficiale ovvia; dunque semplicemente 
non sappiamo con certezza dove si tro- 
vano. Per di più, \ 'esperienza fatta con il 
terremoto del 1980 ci ha insegnato che, 



paradossalmente, è più facile che faglie 
chiaramente espresse alla superficie sia- 
no il prodotto di regimi tettonici ormai 
superati che non di quello oggi attivo. 
Sapere dove si trovano queste faglie per 
valutarne il potenziale e dunque compi- 
to arduo, e forse impossibile, se il terre- 
moto deS 1980 non ci avesse inaspettata- 
mente fornito una chiave di lettura asso- 
lutamente eccezionale. 

/ predecessori del terremoto del 1980 

Fino a questo punto, la constatazione 
della giovane età del regime tettonico in 
atto non è andata al di là della semplice 
osservazione qualitativa. Fatto ancora 
più importante, questa constatazione 
non ha offerto alcuna indicazione sulla 



velocità della deformazione tettonica, 
ovvero sulla velocità del rilascio sismico 
e quindi, in ultima analisi, sul tempo di 
ricorrenza dei grandi terremoti che inte- 
resseranno l'Appennino meridionale. Si 
è reso così essenziale elaborare un qua- 
dro cronologico di riferimento che ser- 
va a dare un senso pratico alle osser- 
vazioni finora condotte, Questo obietti- 
vo è stato raggiunto attraverso un espe- 
rimento paleosismologico, il primo di 
questo tipo a essere condotto in Italia e 
in Europa, avviato da ricercatori dell'I- 
stituto nazionale di geofisica dì Roma 
lungo la scarpata prodotta dal terremoto 
del 1980, 

Tra i numerosi siti che sembravano 
aver registrato deformazioni indotte da 
eventi precedenti a quello del 1980 è sta- 



to selezionato il Piano di Pecore di Col- 
li ano, una piccola depressione circolare 
posta a 1200 metri di quota lungo la dor- 
sale del Monte Marzano-Monte Carpi- 
neta, Piano di Pecore, che si trova solo 
qualche chilometro a sud dell'epicentro 
strumentale dei terremoto, fu vistosa- 
mente attraversato dalla scarpata di fa- 
glia prodotta dal terremoto del 1980. La 
posizione e la conformazione dei bacino 
ne fanno una efficiente trappola per i 
sedimenti dilavati dai rilievi circostanti. 
Questo meccanismo è apparso partico- 
larmente chiaro all'indomani del terre- 
moto, quando la parte centrale del Piano 
si è trovata ribassata di circa 80 centime- 
tri rispetto al suo unico punto di drenag- 
gio. Il bacino ha così iniziato una fase di 
rapido colmamento che ha velocemente 



20 le scienze n. 266, ottobre 1990 



LE SCIENZE ti. 266, Ottobre 1990 21 



EVENTO 


ETÀ 
(ANNI) 


RIGETTO 

VERTICALE 

(CENTIMETRI) 


1 


10 


60 


2 


2750-3500 


55 


3 


3500-4400 


50 


4 


4400-6700 


85 


5 


>6700 


60 



Nella tabella è riportato l'intervallo crono- 
logico a coi è stato assegnato ciascuno dei 
quattro paleoterremoti riconosciuti nelle 
trincee e l'entità della dislocazione verticale 
prodotta da ognuno di essi. La somiglianza 
tra ì valori di dislocazione porta a conside- 
rare il terremoto del 1980 come caratteri* 
stico per questa faglia. Sulla base di questi 
risultati si può calcolare un tasso di solleva* 
mento medio di 0,4 millimetri all'anno e un 
tasso di estensione di 0,2 millimetri all'an- 
no. 11 tempo di ricorrenza medio per ter* 
remoti tipo 1980 risulta di circa 1700 anni. 



sottratto agli agenti esogeni le deforma- 
zioni superficiali prodotte dal terremoto 
e che sta progressivamente ricreando le 
condizioni di drenaggio originarie. 

L'ipotesi che un fenomeno simile si sia 
verificalo anche a seguito di eventi del 
passato implica quindi che le deforma- 
zioni da questi prodotte si trovino oggi 
ben conservate nel sottosuolo di Piano 
di Pecore. Sono state cosi aperte due 
trincee che attraversano la scarpata al 
suo ingresso nel Piano e al centro di esso. 
L'esame di dettaglio delle pareti delle 
trincee ha consentito la ricostruzione di 
una sequenza stratigrafica costituita da 
una alternanza di depositi lacustri e col- 
luviali (derivanti dal dilavamento dei 
versanti e deposti in ambiente subaereo) 
e che mostra, in corrispondenza della 
scarpata di faglia prodotta nel 1980, de- 
formazioni legate ai diversi terremoti a 
esso precedenti. Attraverso un procedi- 
mento di ricostruzione grafica è stato 
possibile riconoscere, misurare e delimi- 
tare cronologicamente effetti deformati- 
vi legati a quattro paleoterremoti del ti* 
pò di quello del 1980. 

I risultati provenienti dalle trincee di 
Piano di Pecore forniscono le prime mi- 
sure assolute del tasso di deformazione 
tettonica cui è soggetto questo settore 
dell'Appennino. L'accumulo di un disli- 
vello di 3,2 metri osservato tra i due lati 
della faglia in un intervallo di circa 7(KX) 
anni dà un tasso medio di sollevamento 
e di estensione in direzione NE-SO ri- 
spettivamente pari a 0,4 e 0,2 millimetri 
all'anno. Quest'ultima stima sale a quasi 
0,4 millimetri all'anno ricordando che il 
terremoto del 1980 ha comportato fa- 



gliamone lungo una faglia parallela a 
quella attraverso cui sono state scavate 
le trincee e assumendo che questa mo- 
dalità di rottura sia anch'essa comune a 
tuiti gli eventi tipo 1980, 

Attraverso ta ragionevole assunzione 
che la meccanica del terremoto del 1980 
sìa simile a quella degli altri grandi ter- 
remoti che avvengono in regioni adia- 
centi della dorsale appenninica si rende 
possibile, almeno in prima approssima- 
zione, estendere a queste ultime le stime 
ottenute a Piano di Pecore, Le stesse sti- 
me possono essere usate per quantificare 
attraverso un semplice calcolo l'età di 
inìzio del regime tettonico oggi attivo. 
Le carte geologiche della zona riportano 
che nell'area circostante Piano di Pecore 
affiora una particolare formazione di 
calcari di età cretacica (da 140 a 65 mi- 
lioni di anni fa) il cui spessore totale è 
valutato pari a 300 metri. Poiché essi si 
fronteggiano sui due lati della faglia, 
e tenendo opportunamente conto della 
loro pendenza rispetto a essa, si può 
concludere che la dislocazione verticale 
complessiva accumulata lungo la faglia 
deve essere pari o minore di 300 metri. 
Infine, sapendo che tale dislocazione au- 
menta alla velocità di 0.4 millimetri al- 
l'anno, si giunge a concludere che la fa- 
glia ha iniziato la sua attività non più di 
750 000 anni fa, un'età molto breve ri- 
spetto a quella che presumibilmente sarà 
la durata di questa fase tettonica. 

Il riconoscimento di quattro paleoe- 
venti precedenti il terremoto del 1980 e a 
esso molto simili, almeno per quanto ri- 
guarda natura, geometria ed entità delle 
deformazioni osservate a Piano di Peco- 
re, implica che questi eventi siano «ca- 
ratteristici» nel senso sopra descritto. La 
tabella di questa pagina mostra che i tre 
eventi più antichi si sono succeduti con 
una cadenza piuttosto regolare, mentre 
quello immediatamente precedente il 
1980 ha avuto luogo circa 1000 anni pri- 
ma di quanto sarebbe stato lecito aspet- 
tarsi sulla base dei terremoti precedenti. 

La cronologia dei paleoeventi succe- 
dutisi lungo la faglia sismogenetica che 
ha originato il terremoto del 1980 fa na- 
scere un problema del tutto nuovo e de- 
cisamente preoccupante. Sappiamo in- 
fatti dalle fonti storiche che terremoti 
apparentemente simili a quello del 1980 
si sono ripetuti con una cadenza di alcuni 
secoli. Uno in particolare, quello avve- 
nuto nel 1694, sembra aver colpito nello 
stesso modo le stesse zone interessate 
dal terremoto del 1980, e infatti su que- 
sta base era stato fino a oggi comune- 
mente ritenuto suo «gemello». Come si 
è visto, l'evidenza paleosismologica con- 
ti asta con questa ipotesi, ma allo stesso 
tempo non è ovviamente in grado di for- 
nire una spiegazione alternativa. 

Tra le ipotesi che è possibile avanzare 
vi è quella secondo cui il terremoto dei 
1694 sarebbe stato in effetti quel tanto 
più piccolo del suo successore da non 
superare la soglia energetica necessa- 
ria a produrre apprezzabili deformazio- 



ni della superficie, ma sufficientemente 
grande da provocare un quadro del dan- 
neggiamento apparentemente identico. 
E ancora, esso potrebbe avere avuto tuo* 
go lungo una struttura sismogenetica pa- 
rallela e speculare a quella lungo cui è 
avvenuto il terremoto del 1980, così da 
mostrare una distribuzione del danneg- 
giamento simile per movimento lungo 
una faglia che giunge in superficie a 15- 
-20 chilometri da Piano di Pecore. 

È molto probabile che la spiegazione 
di questo problema preveda una combi- 
nazione delle due ipotesi formulate, In 
ogni caso, il sospetto che gli effetti di 
questo come di moki altri terremoti sto- 
rici appenninici siano stati decisamente 
sovrastimati, e quindi che alcune stime 
di rischio sismico basate sui cataloghi 
storici siano inutilmente pessimistiche, 
resta. L*apertura di nuove trincee in 
nuovi pumi della faglia, la progressiva 
chiarificazione dei rapporti tra questa 
e le faglie adiacenti e una auspicabile 
rilettimi critica della documentazione 
su particolari eventi storici dovrebbero 
consentirci nei prossimi anni di compiere 
significativi progressi nella valutazione 
del potenziale sismogenetico della dor- 
sale appenninica e nell'individuazione 
delle aree più immediatamente minac- 
ciate dal verificarsi di grandi terremoti 
come quello del 1980. 



BIBLIOGRAFIA 

SCUWARTZ DAVID P. e COPPERSMITH 

kevin j , Fault Behavior and CharacteH- 
stic Earthquakes: Examples from the 
Wosatch and San Andreas Fault Zones in 
«Journal of Geophysical Researches», 
89. pp. 5681-5698, 1984, 

WESTAWAY ROBERT e JACKSON JA- 
MES, The Earthquake of 1980 November 
23 in Campania- Basilicata (Southern Ita- 
ly) in «Geophysical Journal of the Royal 
Astronomica! Society», 90, pp. 375-445, 
1987. 

BOSCHI ENZO e GUIDOBONJ EMANUE* 
LA, I grandi terremoti medievali in Italia 
in «Le Scienze» tL 249, maggio 1989, 

PANTOST1 DANIELA e VALENSISE GIAN- 
LUCA, Riconoscere il « terremoto caratte- 
ristico»; il caso dell'Appennino centro- 
-meridionale in I terremoti prima del Mil- 
le a cura di Emanuela Guidoboni , Storia 
Geofisica Ambiente Editore, Bologna, 
1989. 

BERNARD PASCAL e ZOLLO ALDO, The 
Irpinia (Italy) 1980 Earthquake: Detailed 
Anaiysis of a Complex No r mal Fault in 
* Journal of Geophysical Researehes», 
94. P p. 1631- 1648, 1989. 

PAN 1 OSTI DAN [E LA e VALENSISE GIAN- 

Li ca, Faulting Mechanism and Com- 
plexity ofthe 23 November 1980. Cam- 
pania- L u can ia Earthq uttke* Inferred 
from Surf ave Observations in «Journal 
of Geophysical Researches», 95, 
pp, 15 319-15341, 199(1 



22 LE SCIENZE n. 266, ottobre 1990 



Oltre il superconduttore 1-2-3 

Nuovi orizzonti si stanno aprendo nel campo dei superconduttori ad aita 
temperatura, compresi quelli contenenti piani di atomi di rame e ossigeno 
che offrono agli elettroni vere e proprie «autostrade» su cui muoversi 



I materiali scoperti recentemente da 
Bednorz, Moller e altri si comporta- 
no, sotto un certo aspetto, come normali 
superconduttori metallici. Se si applica 
una tensione a tino di questi materiali a 
temperatura ambiente, gli elettroni co- 
minciano a muoversi al suo interno. Poi- 
ché vengono diffusi dagli atomi del com- 
posto gli elettroni perdono energia e 
questo fenomeno si manifesta nella resi- 



stenza elettrica. Se il materiale viene raf- 
freddato, la resistenza e la perdita di 
energia decrescono. Quando si scende 
appena un pò 1 al di sotto della tempera- 
tura di transizione, d'un tratto la resi- 
stenza si annulla. Gli elettroni subiscono 
una transizione di fase e non possono più 
essere diffusi dagli atomi. 

I composti di Bednorz e Muller appar- 
tengono a un gruppo piuttosto ristretto 



di materiali ceramici con buone proprie* 
tà di conduzione. (È ben noto invece che 
le ceramiche comuni, quelle con cui si 
fanno i piatti e i lavandini, sono isolanti.) 
Ciascuno dei metalli presenti - lantanio, 
bario e rame * reagisce facilmente con 
l'ossigeno, formandoli rispettivo ossido. 
Questi ossidi sono isolanti, cioè condu- 
cono male l'elettricità a temperatura am- 
biente. Tuttavia, combinando nelle giu- 



di Robert J. Cava 



Più di dieci anni fa, all'Università di 
Caen, in Francia, Bernard Ra- 
veau e collaboratori comincia- 
rono a sintetizzare una serie di composti 
costituiti da lantanio, bario, rame e os- 
sigeno, Se avessero raffreddato qualcu- 
no di questi materiali ceramici a tempe- 
rature prossime a 40 kelvin, i ricercatori 
avrebbero potuto osservare che essi non 
offrivano alcuna resistenza al passaggio 
della corrente elettrica. Allora tuttavia 
ben pochi fisici, chimici o esperti di ma- 
teriali avevano motivo di ritenere che 
quei composti fossero superconduttori e 
tanto meno erano disposti a credere alla 
possibilità di realizzare in pratica super- 
conduttori con una temperatura di tran- 
sizione così elevata. I materiali ceramici 
vennero relativamente trascurali dai ri- 
cercatori per parecchi anni, fino a quan- 
do, nel 1986, ì fisici K. Alex Muller e J. 
Georg Bednorz dei laboratori di ricerca 
della IBM presso Zurigo si resero conto 
che essi costituivano la chiave per pro- 
durre una nuova famiglia di supercon- 
duttori ad aita temperatura capaci di da- 
re nuovo impulso alla teoria e alle appli- 
cazioni della superconduttività. La sco- 
perta, per la quale i due ricercatori han- 
no ricevuto il premio Nobel ha dato 
ravvio a una delle più straordinarie rivo- 
luzioni della fisica dello stato solido, 

Spronati dalla speranza di scoprire il 
non plus ultra dei superconduttori ad al- 
ta temperatura, nel 1987 quasi tutti co- 
loro che avevano a disposizione un siste- 
ma periodico degli elementi e un forno 
si misero d'impegno a fabbricare i com- 
posti più bizzarri a base di rame e ossi- 
geno. Tuttavia la natu ra è molto esigente 
per quanto riguarda la formazione degli 
ossidi di rame. Benché nella scelta degli 
elementi da combinare per ottenere i 
nuovi composti ci si possa far guidare 
dalle teorie della chimica dello stato so- 
lido, questi materiali sono cosi complessi 
che nessuna teoria è ancora in grado di 
fornire previsioni attendibili sulla loro 
struttura o sul loro comportamento. Bi- 
sogna sperare che intuito, preparazione 

24 le scienze n. 266, ottobre 1990 



teorica e fortuna portino proprio a quel- 
la giusta combinazione dì elementi che 
consenta di ottenere una temperatura di 
transizione ancora più alta. 

Nel febbraio 1987. Ching-Wu (Paul) 
Chu dell'Università di Houston, Maw- 
-Kuen Wu de irUni versi tà dell'Alabama 
e collaboratori sostituirono, nel compo- 
sto sintetizzato da Bednorz e Muller, il 
lantanio con un'altra terra rara dall'ato- 
mo più piccolo, l'ittrìo, e ottennero un 
superconduttore con una temperatura di 
transizione di 90 kelvin. Poco dopo R. 
Bruce van Dover, Bertram Batlogg e io» 
lavorando presso gli AT&T Bell Labo- 
ratories, determinammo per primi la 
composizione chimica del supercondut- 
tore, oggi noto con il nome 1-2-3 che 
esprime il rapporto tra gli atomi di ittrio, 
di bario e di rame, LT-2-3 era il primo 
superconduttore con una temperatura di 
transizione superiore a 77 kelvin e pote- 
va quindi essere raffreddato facilmente 
e con poca spesa in un bagno di azoto 
liquido. I migliori superconduttori me- 
tallici tradizionali, come le leghe di nio- 
bio e stagno, richiedevano come refrige- 
rante l'elio liquido, che è più costoso, e 
la stessa cosa valeva per il primo super- 
conduttore ad alta temperatura scoperto 
da Bednorz e Muller (si veda l'articolo 
Le future applicazioni dei nuovi saper- 
conduttori di Alan M. Wolsky, Robert 
F. Giese ed Edward J. Daniels in «Le 
Scienze» n. 248. aprile 1989). 

Negli ultimi quattro anni fimpegno di 
migliaia dì ricercatori in tutto il mondo 
ha permesso dt produrre una decina di 
superconduttori con una temperatura di 
transizione superiore a 40 kelvin e alcuni 
con una temperatura di transizione su- 
periore a 77 kelvin, Quasi tutti ì super- 
conduttori ad alta temperatura sono sta- 
ti scoperti da sperimentatori che segui- 
vano un altra linea di ricerca e che. su- 
perati per ingegno (e aiutati) dalla natu- 
ra, hanno trovato per pura coincidenza 
qualcosa di diverso. La più alta tempe- 
ratura di transizione finora raggiunta e 
quella sbalorditiva di 125 kelvin relativa 



a un composto di tallio, bario, calcio, 
rame e ossigeno. 

Per quanto gli studiosi non conoscano 
i limiti della superconduttività e neppure 
comprendano le interazioni fondamen- 
tali grazie alle quali essa si manifesta nei 
superconduttori ceramici, è possibile in- 
dicare le caratteristiche molecolari che 
favoriscono od ostacolano la supercon- 
duttività. L'aspetto più importante è che 
i reticoli cristallini di lucci i supercondut- 
tori ad alta temperai ura contengono pia- 
ni dì atomi di rame e di ossigeno inter- 
calati astrati dì altri elementi. Quando 
un superconduttore ad alta temperatura 
viene portato a una temperatura inferio- 
re a quella di transizione, i piani di atomi 
di rame e ossigeno offrono agli elettroni 
vere e proprie autostrade su cui spostar- 
si. Gli altri elementi nel reticolo cristal- 
lino possono essere scelti e disposti in 
modo tale da far aumentare o diminuire 
la temperatura di transizione al regime 
di superconduzione. 




Un superconduttore costituito da tallio* ba- 
rio, calcio, rame e ossigeno, di formata 
ThBaiCaiCujOio. ha la più alta tempera- 
tura di transizione finora nota: quando vie- 
ne raffreddalo sotto i 125 kelvin non oppone 
ìi k ti n li resistenza al passaggio di corrente. 
Come altri superconduttori ceramici, que- 
sto composto del tallio contiene piani di a- 
tomi di rame e di ossigeno che permetto* 
no agli elettroni di spostarsi nel materiate. 







r XX^ 



ni r ■ faw 




La caratteristica elettronica fondameli la te dì quasi lutti ì supercon- 
duttori ad alta temperatura i- il Lenirne Tra rame t* ossigeno. In ato- 
mo di rame si può combinare coti l'ossigeno Mentirlo quattro strut- 



ture diverse che possono essere rappresentate tramite un poliedro 
di coordinazione, cioè una figura geometrica eli e comprende I 1 ato- 
mo di rame e gli atomi di ossigeno a cui esso è direttamente legato. 



ste proporzioni lantanio, bario, rame e 
ossigeno, Bednorz e Mùller ottennero 
un materiale ceramico che conduce bene 
l'elettricità a temperatura ambiente ed è 
superconduttore a 28 kelvin. 

La natura isolante oppure conduttrice 
di un materiale ceramico dipende da co- 
me si comportano in seno al composto i 
portatori di carica negativa, cioè gli elet- 
troni. L'ossido di bario (BaO), per e- 
sempio, e un ìsolante perché gli elettroni 
sono confinati nella regione circostante 
i nuclei degli atomi di bario e di ossigeno, 
Gii elettroni sono localizzati a causa dei 
vincoli di carica e di energia cui sono 
soggetti il bario e l'ossigeno. Il nucleo 
del bario contiene 56 protoni e quindi 
nello stato atomico neutro è circondato 
da 56 elettroni. Il nucleo dell'ossigeno ha 
otto protoni e quindi nello stato atomico 
neutro è circondato da otto elettroni. 
Per formare composti chimici come Tos- 
sido di bario, gli elettroni si ridistribui- 
scono tra gli atomi di bario e di ossigeno 
in modo da realizzare lo stato con l'ener- 
gìa più bassa possibile, 

Gli. elettroni si distribuiscono intorno 
ai nuclei in orbitali, che si possono im- 
maginare come gusci concentrici conte- 
nenti un certo numero di elettroni. Gli 
elettroni dei gusci interni sono fortemen- 
te legati al nucleo, mentre quelli dei gu- 
sci esterni si possono es tra ire più facil- 
mente e hanno un ruolo più importante 
nei fenomeni chimici ed elettrici. 

L'ossigeno è il «collante» che tiene in- 
sieme i composti ceramici. Un atomo di 
ossigeno ha sei elettroni nel suo guscio 
esterno, che ne può contenere fino a ot- 
to. Dato che un guscio esterno completo 
(ottetto) è una configurazione molto più 
stabile rispetto a uno parzialmente occu- 
pato, acquisendo due elettroni un atomo 
di ossigeno può raggiungere uno stato di 
energia molto inferiore. Quindi un ato- 
mo di ossigeno «preferisce» avere una 
carica negativa pari a due: in altre paro- 
le. ha numero di ossidazione -2. Un 



atomo di bario ha due elettroni nel gu- 
scio esterno, ma perdendoli può portarsi 
in uno stato di energia molto più bassa: 
dunque il suo numero dì ossidazione è 
+ 2. Per ottenere la configurazione elet- 
tronica dì energia minima nell'ossido di 
bario ciascun atomo di bario cede due 
elettroni a un atomo di ossigeno. Dato 
che ci vuole molta energia per aggiunge- 
re o sottrarre un elettrone all'orbitale 
completo, ora gli elettroni sono forte- 
mente localizzati e non sono in grado di 
trasportare corrente elettrica. 

Questo scambio di elettroni costitui- 
sce anche la base del legame che tiene 
insieme il materiale ceramico. Gli atomi 
di bario con carica positiva (+2) attrag- 
gono quelli di ossigeno che hanno carica 
negativa (-2): questo tipo di legame si 
chiama ionico, 

Virtualmente in tutti i materiali cera- 
mici gli elettroni esterni degli atomi del 
metallo si trovano in uno stato di energia 
molto più alta rispetto agli elettroni 
esterni degli atomi di ossigeno, Quindi 
per raggiungere una configurazione sta- 
bile a bassa energìa gli atomi del metallo 
di solito cedono uno ò più elettroni dei 
gusci esterni, che vengono catturati dagli 
atomi di ossigeno. Poiché gli elettroni 
sono localizzati presso g!i atomi del me- 
tallo e quelli di ossigeno, il materiale ce- 
ramico si comporta da isolante. 

Molti materiali ceramici contenenti 
ossido di rame conducono bene l'e- 
lettricità perché alcuni degli elettroni so- 
no liberi di passare da un atomo all'altro. 
In questo tipo di materiale ceramico gli 
elettroni non sono localizzati, a causa di 
una particolare interazione tra rame e 
ossigeno. In composti come Cu^O, il ra- 
me cede facilmente un elettrone ali ossi- 
geno e rimane quindi con il guscio ester- 
no completo, I due atomi di rame (cia- 
scuno con numero di ossidazione +1) 
formano un legame ionico con l'ossigeno 
(numero di ossidazione —2) e. dato che 



gli elettroni sono localizzati presso i nu- 
clei, il materiale si comporta da isolante. 

Invece in ossidi come CuO il rame non 
cede ti secondo elettrone con la stessa 
facilita del primo, perché la perdita del 
secondo elettrone crea una lacuna nel 
guscio esterno. L'ossigeno deve «fotta- 
re» per ottenere il secondo elettrone e 
completare così il proprio orbitale ester- 
no. Alla fine l'ossigeno evince» perché 
la configurazione con un orbitale esterno 
completo nell'ossigeno è un poco più 
stabile di quella con un orbitale esterno 
completo nel rame. Tuttavia se nel reti- 
colo cristallino sono presenti altri ele- 
menti oltre al rame e all'ossigeno, questo 
delicato equilibrio energetico può essere 
alterato e rame e ossigeno mettono in 
comune gli elettroni, in modo da com- 
pletare t propri gusci estemi. (Questi 
elettroni condivisi danno luogo a un le- 
game covalente fra ossigeno e rame.) 
Dato che gli elettroni sono lìberi di muo- 
versi fra gli atomi di rame e quelli dì 
ossigeno, i materiali che contengono ra- 
me, ossigeno e altri elementi possono ri- 
sultare buoni conduttori. 

Nel legame chimico con l'ossìgeno il 
rame può cedere uno, due o tre elettro- 
ni. Fra questi tre stati di ossidazione, il 
più stabile è -f 2; perciò lo stato + 1 (che 
si trova per esempio in Cu^O) si chiama 
rame «ridotto» e lo stato +3 (che si trova 
per esempio nell'ossido di sodio e rame, 
NaCuO>) è detto rame «ossidato», 

Net superconduttori ceramici il rame 
sembra comportarsi come se avesse un 
numero di ossidazione frazionario. Il nu- 
mero di ossidazione del rame dipende 
dall'influenza esercitata dall'ossigeno e 
dagli altri atomi del superconduttore: se 
è uguale a +2, gli elettroni sono localiz- 
zati nel legame rame-ossìgeno. In certi 
casi, quando nel composto sono presenti 
altri elementi ossidanti, come lantanio e 
bario, da alcuni atomi di rame vengono 
estratti più di due elettroni, e il numero 
di ossidazione sì sposta verso +3. In altri 



casi, elementi «riducenti** possono for- 
nire elettroni ad alcuni atomi di rame, 
portando il numero di ossidazione da +2 
verso 4- 1. In entrambi i casi gii elettroni 
non sono più localizzati e possono par- 
tecipare alla conduzione elettrica. 

Benché questa sorta di computo del 
numero di ossidazione sia essenziale per 
capire i superconduttori ceramici, si trat- 
ta di una semplificazione. In questi su- 
perconduttori gli atomi di ossigeno e di 
rame condividono alcuni elettroni per 
soddisfare i propri vincoli energetici. Gli 
elettroni condivisi si spostano dagli ato- 
mi di rame a quelli dì ossigeno, forman- 
do un «mare» dì elettroni o, più esatta- 
mente, una handa di conduzione. Se gli 
atomi di rame sono ridotti a numeri di 
ossidazione inferiori a +2. cioè se cedo- 
no in media meno di due elettroni, allora 
gli elettroni che si spostano nella banda 
di conduzione sono pochi. Se gli atomi 
di rame sono ossidati a numeri di ossida- 
zione maggiori di +2, cioè se cedono in 
media più di due elettroni, allora Li ban- 
da di conduzione brulica di elettroni e si 
generano regioni di carica positiva dette 
buche. Il concetto dì numero di ossida- 
zione frazionario ha senso solo perché in 
realtà si ha un'aggiunta o una sottrazione 
di elettroni a una banda di conduzione. 

Il rame non è runico metallo che può 
assumere numeri di ossidazione frazio- 
nari in presenza di ossigeno. Il bismuto 
e il piombo hanno* come il rame, orbitali 
elettronici con vincoli energetici analo- 
ghi a quelli dell'ossigeno. In condizioni 
opportune entrambi È metalli formano 
legami covalenti con l'ossigeno, il che 
consente agli elettroni di spostarsi lìbe- 
ramente all'interno di una banda di con- 
duzione, Sono stati scoperti ossidi sia di 
piombo sia di bismuto che sono super- 
conduttori a temperature relativamente 
elevate; si discute ancora animatamente 
se questi composti siano supercondutto- 
ri per lo stesso motivo per cui lo sono gli 
ossidi di rame. 

I" a famiglia di superconduttori scoperta 
*** da Bednorz e Muller si basa sulla 
modificazione chìm ica dell'ossido di lan- 
tanio e rame (La 2 Cu0 4 ). la cui struttura 
cristallina è mostrata nel l'ili ustrazione in 
questa pagina. Le strutture dei super- 
conduttori ceramici sono di solito de- 
scritte in termini di poliedri di coordina- 
zione, uno dei concetti chiave della chi- 
mica dello stato solido. Un poliedro di 
coordinazione è una figura geometrica 
che comprende un atomo metallico e gli 
atomi di ossigeno più vicini, ai quali esso 
è legato direttamente. I poliedri metto- 
no in evidenza quanti atomi di ossìgeno 
uno ione « preferisce » nel suo intorno im- 
mediato di legame. Questo numero pre- 
ferito di atomi d'ossigeno può variare, 
per esempio, da due per il rame + 1 a 15 
per il cesio +1. Il numero effettivo di 
atomi di ossìgeno con i quali uno ione e 
coordinato dipende sia dalla dimensione 
dello ione, sia dalle particolari esigenze 
degli altri atomi di metallo dell'ossido. 



OSSIDO DI NEODIMIO E RAME 
NtfzCuO, 




La struttura cristallina dell'ossido di rame e lantanio, LaiCuO.» Un atta a sinistrai, è alla 
base dì molti superconduttori. Se alcuni atomi di lantanio sono sostituiti da atomi di calcio, 
dì stronzio o di bario si ottiene un superconduttore. In basso a sinistra è illustrato il poliedro 
di coordina/ io ne del lantanio con l'ossigeno. 1 superconduttori derivati da LaiCuOj sono 
di tipo p perché contengono portatori di carica positiva detti buche. Superconduttori di 
tipo n si possono ottenere dall'ossido di rame e neodimio, Nd2Cu0.j Un atto a destra), 
sostituendo alcuni atomi di neodimio con atomi di cerio o di torio. Nei superconduttori 
derivati da NdiCuOj i portatori di carica negativa sono elettroni. Un atomo di neodimio 
è coordinato con otto atomi di ossigeno in un prisma a base quadrata (iti bassa a destra). 



26 LE scienze n. 266, ottobre 1990 



LE sciènze n. 266, ottobre 1990 27 



In La2CuO^ gli atomi di rame sono 
coordinati con set atomi di ossìgeno posti 
ai vertici di un ottaedro allungato. Per i 
vincoli energetici cui è sottoposto il gu- 
scio esterno del rame nello stato di ossi- 
dazione +2, gli atomi di ossigeno situati 
su due vertici opposti dell'ottaedro sono 
sempre più lontani dal rame che non gli 
atomi di ossigeno situati sugli altri quat- 
tro vertici. Fu questa distorsione struttu- 
rale, detta effetto Jahn-Teller, a indurre 
Bednorz e Miìller a considerare gli ossidi 
di rame come potenzia»' supercondutto- 
ri. L'effetto fa prevedere una forte inte- 
razione fra gli elettroni e le posizioni oc- 
cupate dagli atomi di rame e ossigeno nel 
reticolo cristallino, e questa interazione 
è considerata molto importante per il 
passaggio al regime di superconduzione. 

In La^CuOj gli ottaedri di rame e os- 
sigeno condividono i vertici occupati dai 
quattro atomi di ossigeno più vicini al 
rame, Gli atomi di rame e gli atomi di 
ossigeno a essi piti vicini giacciono tutti 
su uno stesso piano. Onesto piano defi- 
nito da rame e ossigeno è ìa caratteristica 
elettronica fondamentale di tutti gli os- 
sidi di rame superconduttori conosciuti. 
In questa zona della struttura cristallina 
hanno origine i portatori di carica che 
determinano la superconduttività. 

La struttura cristallina di La^CuOj è 
notevole perché i poliedri di coordina- 
zione del lantanio e del rame si combi- 
nano in modo da riempire uno spazio 
tridimensionale con strutture bidimen- 
sionali. Pertanto i piani di rame e ossi- 
geno sono intercalati a un doppio strato 
inerte di lantanio e ossigeno. 

L'ossido di lantanio e di rame non è 
superconduttore a causa di un'interazio- 
ne eh e si ve ri fica fra g 1 i e I e 1 1 m n i d e i gusci 
esterni di atomi di rame vicini, Un ato- 
mo di rame cede all'ossigeno due elet- 
troni e ne conserva nove nel guscio ester- 
no. Ciascuno dei nove elettroni ha un 
momento magnetico, cioè si comporta 
come se fosse un minuscolo magnete a 
barra con un polo nord e un polo sud. 
L'energìa derivante da questa interazio- 
ne magnetica diventa minima quando 
otto dì questi nove elettroni si accoppia- 
no: ì loro momenti magnetici si elidono 
assumendo direzioni parallele e versi op- 
posti. Quando i restanti elettroni non ac- 
coppiati su atomi di rame vicini interagi- 
scono tra loro e si allineano, i toro mo- 
menti magnetici puntano in versi oppo- 
sti. Questo fenomeno, detto antiferro- 
magnetismo, fissagli elettroni al reticolo 
cristallino e impedisce non solo la super- 
conduttività, ma addirittura la normale 
conduttività. 

La superconduttività si manifesta so- 
lamente se Tantiferromagnetismo viene 
completamente eliminato. Per questa 
ragione molti studiosi ritengono che l'o- 
rigine del magnetismo sia intimamente 
legata a quella della superconduttività 
ad alta temperatura. Alcuni hanno attri- 
buito a questo legame una connotazione 
sinistra, definendo magnetismo e super- 
conduttività i «Jekyll e Hyde» della 




H composto 1-2-3 (YBajCu.iO?) è solamente uno dei termini di quella che i chimici chia- 
mano serie omologa. Ciascun termine della serie sì può ricavare da un altro per aggiun- 
ta u sottrazioni! di semplici componenti strutturali. Tre termini della serie omologa - 
YRa^Cu.iCb, Y> Ba^CuvOi? e YBa^Cu^O» - sono superconduttori con una temperatura di 
transizione superiore a 77 kelvin. Non si sa ancora se i composti YBaCu^C^ (che qui non 
è illustrato! e Y^Ba^Cu^Oii esistano. Si prevede che le caratteristiche strutturali di 
YBaCuiiX* siano simili a quelle di YBaCuFe(>5, che non è un ossido superconduttore. 



superconduttività ad alta temperatura. 

La struttura cristallina di La^CuC^ 
può essere però modificata per eliminare 
Fanti ferromagnetismo e introdurre la 
superconduttività, Bednorze Miiller ot- 
tennero il loro famoso superconduttore 
ad alta temperatura sostituendo alcuni 
degli atomi di lantanio con atomi di ba- 
rio. La formula chimica risultante è 
La:- t Ba l Cu0 4 . 

In questo composto si conserva la neu- 
tralità di carica se per ogni atomo dì lan- 
tanio sostituito da uno di bario un atomo 
ài rame si ossida da +2 a +3, L'elettrone 
in più ceduto dal rame non è localizzato 
e va nella banda di conduzione, Quando 
gli atomi di rame raggiungono un nume- 
ro di ossidazione critico, prossimo a 
+ 2.2. Tanti ferromagnetismo scompare 
e compare la superconduttività. 



In La2^ t Ba. t Cu04 il rame è coordina- 
to con sei atomi di ossigeno, che forma- 
no i vertici di un ottaedro allungato. Poi- 
ché il numero di coordinazione cresce 
grosso modo con le dimensioni dell'ato- 
mo, gli atomi di lantanio, che sono più 
grandi degli atomi di rame, sono coordi- 
nati con nove atomi di ossigeno. Anche 
gli atomi di bario, la cui grandezza è 
prossima a quella del lantanio, sono co- 
ordinati con nove atomi di ossigeno. In 
seno al reticolo cristallino gli atomi di 
bario possono dunque occupare le stesse 
posizioni degli atomi di lantanio e, in 
effetti, vi si distribuiscono a caso. Una 
siffatta distribuzione di atomi in posizio- 
ni cristallografiche fisse si ehiama solu- 
zione solida. (Una soluzione liquida 
consiste invece in una distribuzione ca- 
suale di ioni in posizioni casuali.) 



Il concetto di soluzione solida è fon- 
damentale per il manifestarsi della su* 
per conduttivi tà negli ossidi di rame. Di 
regola le soluzioni solide si formano solo 
se le grandezze degli ioni sono circa 
uguali e se i legami chimici che si costi- 
tuiscono sono di tipo simile. Quindi il 
bario, lo stronzio o il calcio possono for- 
mare soluzioni solide in La:CuOj sosti- 
tuendosi in parte al lantanio. Quando in 
un cristallo di La^CuOj uno su nove ato- 
mi dì lantanio è sostituito dallo stronzio, 
si ha il composto Lai^SrruCuO.!. dove il 
numero di ossidazione del rame è +2,2. 
In questo composto la temperatura di 
transizione alla superconduttività è di 4(1 
kelvin, la più elevata per le soluzioni so- 
lide basate su La2CuQ 4 . 

A differenza delle soluzioni solide che 
rendono superconduttore La:Cu04, il 



composto YBa^CujO? (il supercondut- 
tore 1-2-3) ha un reticolo cristallino or- 
dinalissimo, costituito da piani paralleli 
di ioni di ittrio, bario e rame (si veda 
l'illustrazione in queste due pagine). Gli 
atomi degli elementi metallici non scam- 
biano le proprie posizioni nel reticolo 
cristallino. I piccoli ioni di ittrio +3 sono 
sempre legati a otto atomi di ossigeno, i 
grandi ioni di bario +2 a dieci atomi di 
ossigeno. Gli atomi di rame situati fra un 
piano di atomi di bario e uno di atomi di 
ittrio sono coordinati con l'ossigeno in 
strutture piramidali. Le basi di queste 
piramidi di rame e ossigeno si fronteg- 
giano reciprocamente ai due lati di un 
piano di atomi di ittrio e costituiscono i 
piani di atomi di rame e ossigeno neces- 
sari alla superconduttività. Gli atomi di 
rame situali tra due strati consecutivi di 



bario sono coordinati con quattro atomi 
dì ossigeno e formano rombi (coordina- 
zione planare quadrata), perpendicolari 
ai piani occupati dal bario, i cui vertici 
sono collegati a costituire una catena. 

Le particolarità del legame rame-ossi- 
geno fanno si che uno spazio tridimen- 
sionale venga riempito da una combina- 
zione di catene unidimensionali e di basi 
bidimensionali delle piramidi. Una volta 
uno scienziato egiziano mi disse scherzo- 
samente che i suoi compatrioti dovreb- 
bero essere molto abili nella ricerca di 
nuovi superconduttori, dato che la ma- 
gia delle piramidi è alla radice della loro 
tradizione culturale. 

In YBa:CuiQ7, il rame ha un numero 
di ossidazione medio di +2,33 (sette dei 
14 elettroni richiesti dall'ossigeno sono 
forniti da un atomo di ittrio e da due di 



28 le scienze n. 266» ottobre 1990 



LE scienze il 266 t ottobre 1 990 29 



bario; gli altri sette elettroni sono ceduti 
da tre atomi di rame). Si è dimostrato 
che tanto nelle strutture a catena quanto 
nelle basi delle piramidi gli atomi di ra- 
me hanno più o meno lo stesso numero 
di ossidazione, 

Nel composto YBa^u^O-, ì sette ato- 
mi di ossìgeno sono d'importanza crucia- 
le per la superconduttività. Se il numero 
di atomi di ossigeno viene ridotto da set- 
te a sei, si forma YBa:CuiO„. che è iso- 
lante L'ossigeno viene rimosso da una 
sola posizione cristallografica e le strut- 
ture planari quadrale di rame e ossigeno 
si trasformano in strutture lineari; que~ 
ste ultime costituiscono una geometria 
di coordinazione stabile per il rame nello 
stato di ossidazione + L La diminuzione 
del contenuto di ossigeno non influisce 
direttamente sulle strutture piramidali di 
rame e ossigeno, ma fa sì che gli atomi 
di rame in queste ultime abbiano ora nu- 
mero di ossidazione +2. In questa con- 
figurazione gli elettroni sono localizzati 
pe r ef f et t o de 1 l T a n t ì f e r ro magne t ism . 

Quando il contenuto di ossigeno di 
YBa:Cu.ìOh viene aumentato, i nuovi 
atomi si collocano direttamente nell'in- 
torno di legame delie strutture lineari; 
perciò il rame si ossida e passa dal nu- 
mero di ossidazione +1 a +2, L'ossige- 
no non forma legami a caso con le strut- 



ture lineari, ma tende a costituire il mas- 
simo numero possibile di strutture pla- 
nari quadrate di rame e ossigeno. 

Quando il contenuto di ossigeno rag- 
giunge un livello tale per cui vi sono in 
media 6.5 atomi di ossigeno disponibili 
per tre atomi di rame, l'ossigeno nelle 
strutture piramidali sottrae al rame un 
numero di elettroni sufficiente a indurre 
la superconduttività. Il composto risul- 
tante. YBa^Cu^O^, ha una temperatu- 
ra di transizione di 60 kelvin. Questo 
composto ha una struttura cristallina 
ben definita, in cui catene di strutture 
planari quadrate e lineari formano una 
schiera ordinata. Via via che il contenuto 
di ossigeno aumenta, continuano a for- 
marsi nuove strutture planari quadrate 
finché, quando le catene sono completa- 
te, la temperatura di transizione al regi- 
me di superconduzione balza a 90 kelvin, 

Gli atomi di rame, sia in YBajCujOr 
sia in Lai.gBatuCuO*, hanno nu- 
meri di ossidazione maggiori di +2. Di 
conseguenza nella banda di conduzione 
vengono introdotte buche cariche posi- 
tivamente : questi materiali sono chiama- 
ti dunque superconduttori di tipo p. I 
superconduttori in cui i portatori di ca- 
rica sono elettroni sono detti di tipo n. 
Fino al 1988 tutti i superconduttori co- 



nosciuti erano di tipo p\ tanto che molti 
ritenevano che non si sarebbe mai otte- 
nuto un superconduttore di tipo n a base 
di ossido di rame, 

Invece nel 1988 Y. Tokura, H. Takagi 
e Shin-ichi Uchida dell'Università di 
Tokyo scoprirono il primo, e finora uni- 
co» superconduttore ceramico di tipo n< 
Il nuovo superconduttore era basalo sul- 
l'ossido di rame e neodimio (Nd:CuOj), 
la cui struttura è simile a quella di 
LajCuOj. Ma mentre il lantanio prefe- 
risce intorno a sé nove atomi di ossigeno, 
lo ione neodimio, più piccolo, è di solito 
coordinato con otto atomi di ossigeno. 
Nel composto Nd2Cu0 4 gli atomi di os- 
sigeno circondano gli atomi di neodimio 
formando un prisma a base quadrata. Di 
conseguenza gli atomi di rame sono co- 
ordinati con quattro atomi di ossigeno in 
strutture planari quadrate parallele ai 
piani occupati dai neodimio. 

Nei superconduttori a base di ossido 
di rame e neodimio alcuni atomi di neo- 
dimio sono sostituiti dal cerio o dal torio, 
con formazione di una soluzione solida. 
Tanto il cerio quanto il torio hanno nu- 
mero dì ossidazione +4 e dimensioni 
adatte per sostituire alcuni degli ioni di 
neodimio +3. Pertanto possono formar- 
si le soluzioni solide Nd:- l Ce,Cu04 e 
Nd^TruCuGj. Quando x è uguale a 



COMPOSIZIONE BASE DEGLI OSSIDI DI RAME SUPERCONDUTTORI 

E ALCUNE VARIANTI 



STRUTTURA 01 PARTENZA 



SOSTITUZIONI 



TEMPERATURA 

DI 

TRANSIZIONE 

(KELVIN} 



COMMENTI 



U^B^CtiO, 


CaoSr 


20-40 


IL PRIMO SUPERCONDUTTORE A BASE 
DI OSSIDO DI RAME FU UN MATERIALE 
CERAMICO DI La. Ba, Cu E O 


Nd^Ce,CuCV/ t 


Pf, Sm Eu 

Tn 


10-25 


QUESTA FAMIGLIA COMPRENDE I SOU 
SUPERCONDUTTORI CERAMICI D» TIPO n 


La^Sm^CuO, 


E«,Gd,TboOy 


20 




vBa^Cu/X 


La, Nd, Sm, Eu, Gd, Dy, Ho, Et, Tm, 

YboLu 

Cu t 8 oCti ? 0, s 


80-93 


YBa,Cu 3 0, FU IL PRIMO 
SUPERCONDUTTORE CON TEMPERATURA 
DJ TRANSIZIONE SUPEHIORE A 77 KELVIN 


Bi ; Sr 2 Cu0 4 


CaCu 2 O i oea ? Cu ] Q ., 


0-110 




TljBa^CuO^ 


CaCu.QgOCajC^O^ 


80-125 


FRA t SUPERCONDUTTORI NOTI 
TlfiafiAfiufi^ HA LA TEMPERATURA 
DI TRANSIZIONE PIÙ ALTA 


TlBa^Cu.O^ 


CaCu,,0 ,. CaXu,Q s o Ca^Cu^O. , 


0-122 




p ^Sr 2 , i Fr,. i Cu 3 O s 


Nd, Sm h Eu, Gó t Tb, Dy, Ho. B Tm 


70-85 




Bi,Sr a Sm^Ce & Cu a O l0 


EuoGa 


20-25 




^Nd^m^Ce^CuA 


Sm, Eu Gd 
Nd.EuoGd 


40 




ta^S^CaCuO^ 


NESSUNA CONOSCIUTA 


60 






1 superconduttori ad alta temperatura, come questo composto di 
piombo, stronzio, dispregio, calcio* rame e ossigeno di formula 

30 LE SCIENZE n. 266, ottobre 1990 



PbzSriDyi-jCa^Cu.iOK formano in genere cristalli rettangolari. I 
cristalli qui illustrati hanno uno spessore di circa 100 micrometri. 



Al questi materiali raggiungono la loro 
massima temperatura di transizione, cir- 
ca 25 kelvin. Onesti composti continua- 
no a essere oggetto di molte ricerche, 
poiché possiedono singolari caratteristi- 
che chimiche, non ancora comprese ap- 
pieno, che possono influire sulla natura 
dei portatori dì carica. 

1 superconduttori con le più alte tem- 
perature di transizione conosciute furo- 
no scoperti nel 1988 da Alien M, Her- 
mann e colleghi dell'Università delF Ar- 
kansas e sono composti di tallio, bario, 
calcio, rame e ossigeno, La tossicità del- 
l'ossido di tallio impone la necessità di 
maneggiare questi material» in condizio- 
ni dì laboratorio molto ben controllate: 
ciò rende ancora dubbia la possibilità di 
un loro impiego commerciale. Nondi- 
meno la struttura cristallina di questi 
composti ha confermato che per conse- 
guire temperature di transizione elevate 
sono essenziali i piani definiti da atomi 
di rame e ossigeno, 

In questi materiali il tallio sì coordina 
con l'ossìgeno formando un ottaedro di 
grandi dimensioni. Questi ottaedri defi- 
niscono un piano giacente sopra un pia- 
no formato da ottaedri o piramidi di ra- 
me e ossigeno. Una formula generale 
per i superconduttori contenenti tallio è 
TlmBazCan-iCUnO»,.^*:. Il deponente 
m indica il numero di strati di ottaedri di 
tallio e ossigeno; attualmente sono noti 



solo composti aventi uno o due strati. Il 
numero n di strati di atomi di rame può 
variare da uno a quattro. Tutti i compo- 
sti della serie sono superconduttori ad 
alta temperatura e quello con la tempe- 
ratura di transizione più alta, 125 kelvin, 
è TbBaiCaCu^Oiii. 

Benché i superconduttori a base di os- 
sido di rame scoperti di recente ab- 
biano una struttura più complessa dei lo- 
ro predecessori, l'elemento essenziale 
per la superconduzione sono i piani di 
rame e ossigeno. Questi piani si alterna- 
no ad altri che fungono da distanziatori 
e, soprattutto, da riserve di cariche po- 
sitive e negative. Lo stato elettronico di 
questi ultimi determina l'entità della ca- 
rica sui piani di rame e ossigeno e la tem- 
peratura di transizione del composto. 

Più dì 15 anni fa, Arthur W. Sìeight e 
collaboratori della Du Pont ottennero 
un materiale ceramico costituito da ba- 
rio, piombo, bismuto e ossigeno. Ben- 
ché avesse una temperatura di transizio- 
ne di soli 12 kelvin, questo materiale fu 
il composto che spinse Bednorz e Miiller 
sulle tracce dei superconduttori cerami- 
ci, Nel 1988 i miei coMeghi e io agli 
AT&T Bell Laboratories scoprimmo 
che un composto a base di bario, bismu- 
to e ossigeno era superconduttore alla 
sorprendente temperatura di 30 kelvin. 
Questi materiali hanno molto in comune 



con gli ossidi di rame e rappresentano di 
per sé unxaso interessante. Forse essi, o 
altri materiali ancora ignoti, indicheran- 
no nuove strade per la superconduttività 
ad alta temperatura: solo il tempo per- 
metterà di saperlo. 



BIBLIOGRAFIA 

K1NGERY W. D, BOWEN H. K. e URL- 

mann D R., ìntroduction to Ceramics, 
seconda edizione, John Wiley & Sons, 
Inc., 1976. 

west Anthony r. , Soiid Siate Ckcm- 
stry and lis Applications, John Wiley & 
Sons, [ne 1984. 

High-Temperature Supereonductivity, 
ristampe da «Physical Review Letters» e 
«Phvsical Review B>% The American 
Physicaì Society, 1987. 

SLElGHT A. w,, Chemistry of 
High - Tempera iure Super con ductors i n 
«Science», 242, n. 4885, 16 dicembre 
1988. 

CAVA R. J., Structural Chemistry and 
the Locai Charge Picture of Copper 
Oxide Superconduciors in «Science», 
247, n. 4943, 9 febbraio 1990, 

VANDERAHTERRELL (a cura), Chemi- 
stry of Superconductor Materials , Noyes 
Publications, in stampa. 



le scienze n. 266, ottobre 1990 31 



Infezioni opportunistiche 
correlate all' AIDS 

In attesa di sconfiggere il virus delVAIDS, le speranze di aumentare la 
sopravvivenza e migliorare la qualità della vita dei pazienti si baseranno 
soprattutto sullo sviluppo di terapie per le malattie associate alla sindrome 



Il virus dell'immunodeficienza del- 
l'uomo (HIV) non causa di per sé 
la maggior parte delle patologie e 
dei decessi associati alla sìndrome da im- 
munodeficienza acquisita (AIDS). Que- 
sto agente virale può danneggiare diret- 
tamente alcuni organi, ma soprattutto, 
abbattendo progressivamente le difese 
dell'organismo, prepara la vìa allo svi- 
luppo di infezioni opportunistiche: inva- 
sioni dì microrganismi che proliferano in 
modo incontrollato a causa della defi- 
ciente funzionalità del sistema immuni- 
tario. Le infezioni di questo tipo, di rado 
patologiche nelle persone con sistema 
immunitario integro, sono responsabili 
anche del 90 per cento dei decessi nei 
pazienti affetti da AIDS (lo stadio finale 
dell'infezione da HIV). 

I farmaci che sì dimostrano attivi con- 
tro l'HIV, come La zidomdina (AZT), 
in realtà non eliminano completamente 
il virus, ma rallentano il declino del si- 
stema immunitario da esso provocato, 
ritardando in questo modo la comparsa 
delle infezioni opportunistiche. Fino a 
quando non si troverà una vera e propria 
cura per l'infezione da HIV, tuttavia, la 
sopravvivenza e la qualità della vita dei 
pazienti dipenderanno soprattutto dalla 
messa a punto di terapie capaci dì pre- 
venire o curare più efficacemente le sin- 
gole infezioni opportunistiche. 

Le ricerche su queste terapie si sono 
ampliate significativamente nell 'ultimo 
decennio e stanno già consentendo pro- 
gressi nel trattamento dei pazienti. Per 
esempio, quando si manifestò l'epide- 
mia di AIDS, non vi era alcun mezzo per 
combattere le infezioni da citomegalovi- 
rus, un virus erpetico che, nei soggetti 
immunodepressu può causare cecità e 
danni all'apparato gastrointestinale ai 
polmoni. Oggi, per la terapia in fase acu- 
ta e per la prevenzione delle recidive, 
disponiamo dì un farmaco già autorizza- 
to dalla Food and Drug Administration 
e di un secondo farmaco in avanzata fase 
di sperimentazione clinica. Fino a poco 
tempo fa la polmonite da Pneumocysrìs 



di John Mills e Henry Masur 



carimi colpiva almeno una volta 1*85 per 
cento di tutti i pazienti affetti da AIDS. 
Attualmente più dei due terzi di questi 
episodi possono essere prevenuti con 
una terapia farmacologica. 

Le infezioni opportunistiche correlate 
ali* A tDSsono molto varie, tuttavia han- 
no in comune diverse caratteristiche. Per 
esempio, la maggior parte dì esse colpi- 
sce anche persone ì ni munode presse per 
altre cause, come coloro che assumono 
farmaci immunosop presso ri per preve- 
nire il rigetto di organi trapiantati. (Ci 
sono, tuttavia, alcune eccezioni: per ra- 
gioni non ancora chiarite, certe patolo- 
gie frequenti nei malati dì AIDS sono 
rare in altri individui ìmmunodc pressi.) 

Inoltre, le malattie infettive associate 
all' infezione da HIV sono provocale da 
organismi assai comuni, anche se La loro 
incidenza cambia da regione a regione al 
variare dei microrganismi endemici. Tali 
malattie di solito sono dovute alla riatti- 
vazione dì infezioni quiescenti controlla- 
te dal sistema immunitario del paziente 
prima dell infezione da HIV, 

Di regola le infezioni che si instaurano 
nei pazienti sieropositivi nei confronti 
dell'HIV sono quelle di solito controlla- 
te dalla risposta mediata da cellule del 
sistema immunitario, risposta dovuta ai 
linfociti 7" e ai macrofagi, che vengono 
decimati da questo tipo di virus. Al con- 
trario, le infezioni che sono contrastate 
principalmente dalla risposta immunita- 
ria mediata da anticorpi o da difese aspe- 
tifiche (fra le quali ve ne sono molte pro- 
vocate da batteri) sono di solito control- 
late abbastanza efficacemente dal siste- 
ma immunitario, almeno per un certo 
periodo di tempo. 

Si conosce solo parzialmente il modo 
in cui PHIV inibisce la risposta immuni- 
taria mediata da cellule. Si sa che il virus 
elimina gradualmente l'insieme dei lin- 
fociti 7' che portano il recettore CD4 
(linfociti T CD4+) e in effetti ci si do- 
vrebbe attendere che una simile perdita 
indebolisca la risposta immunitaria me- 
diata da cellule, poiché questi linfociti, 



noti anche come linfociti T coadiuvanti 
o hetper* controllano l'attività di molte 
altre componenti della risposta immuni- 
tariacellulare. Tuttavia, una disfunzione 
immunitaria è spesso presente anche pri- 
ma che divenga evidente un declino dei 
linfociti 7XD4+, il che significa che la 
perdita di queste cellule non è la sola 
causa del danno immunitario. 

I ricercatori hanno scoperto inoltre 
che lo sviluppo dì particolari infezio- 
ni opportunistiche è in relazione al nu- 
mero di linfociti T CD4+ nel sangue. 
Gli individui sani hanno circa 1000 di 
queste cellule in un millimetro cubo di 
sangue, mentre negli individui sieropo- 
sitivi la concentrazione diminuisce in 
media di 40-80 ogni anno. 

Quando il numero di questi linfociti 
scende tra 400 e 200 per millimetro cu- 
bo, compaiono di solito le prime infezio- 
ni, relativamente benigne ma fastidiose, 
che colpiscono la cute e le mucose. Tra 
queste possono esserci la candidiasi o 
mughetto (dolorose ulcerazioni bianca» 
sire nel cavo orale provocate da Candida 
albicane), infezioni cutanee e nervose 
prodotte dal virus varicella-zoster, il pie- 
de d'atleta in forma insolitamente grave 
e La leucoplachia orale vegetante (plac- 
che biancastre sulla lìngua provocate dal 
virus dì Epstein-Barr). 

Allorquando compaiono questi sinto- 
mi, si è soliti dire che il soggetto è affetto 
dal complesso correlato air AIDS, o 
ARC. Lo stesso vale per i pazienti che 
soffrono di febbri croniche criptogeneti- 
che, diarrea, sudori notturni profusi o 
perdita di peso. Con il progressivo ag- 
gravarsi della deficienza immunitaria, si 
sviluppano di solito le infezioni opportu- 
nistiche gravi caratteristiche dell'ArOS, 
Queste comprendono spesso tre delle 
più comuni cause di morte per i malati 
di AIDS: La polmonite da P. carimi, la 
meningite criptococciea (provocata da 
un fungo) e la toxoplasmosi (una malat- 
tia protozoaria che interessa il sistema 
nervoso centrale). In passato, queste tre 



sole infezioni erano responsabili negli 
Stati Uniti del 50-70 percento dei decessi 
di pazienti affetti da AIDS. 

John P. Phair della Northwestern U- 
niversity e collaboratori hanno dimo- 
strato che il rischio che si sviluppi una 
polmonite da F. carimi aumenta drasti- 
camente dopo che il numero dì linfoci- 
ti 7TD4+ è sceso al di sotto dei 200 per 
millimetro cubo: senza una terapia pre- 
ventiva, più di un quinto dei pazienti con 
un numero di linfociti T CD4+ così ri- 
dotto incorrerà in un primo episodio di 
polmonite da P. carimi entro un anno. Il 
rischio di patologie provocate da altre 
particolari infezioni, come quella da ci- 
tomegalovirus, non diventa significativo 
fino a quando il numero di linfociti T 
CD4+ non sia sceso al di sotto dei 100 
per millimetro cubo. 

L'approccio ideale al trattamento del- 
le infezioni opportunistiche correlate al- 
TAIDS presenta tre aspetti: la preven- 
zione dell'infezione (profilassi prima- 
ria), il trattamento dell'infezione acuta e 
infine la prevenzione delle recidive (pro- 
filassi secondaria). Oggi si pone mol- 
ta attenzione alla profilassi secondaria, 
perché in mancanza di essa le infezioni 
opportunistiche si ri presentano quasi 
sempre. Questo avviene perché di rado 
le terapie an ti biotiche riescono a elimi- 
nare completamente i microrganismi re- 
sponsabili. Negli individui sani queste 
terapie sono efficaci in quanto danno al- 
Torganismo il tempo di organizzare le 
proprie difese contro l'agente patogeno, 
mentre nei pazienti con infezione da 
HIV il sistema immunitario compromes- 
so non è in grado di eliminare l'agente 
patogeno. 

Di solito ci si attende che un farmaco 
efficace contro un'infezione acuta possa 
essere utile anche nella profilassi prima- 
ria e in quella secondaria. Sfortunata- 
mente , molti farmaci che possono essere 
tollerati per un breve periodo di tempo 
manifestano inconvenienti che ne scon- 
sigliano la somministrazione prolungata 
ascopo preventivo, come una potenziale 
tossicità o la necessità di somministrazio- 
ne endovenosa che, oltre a essere poco 
pratica e costosa, può dare origine a ul- 
teriori infezioni. Questi problemi evi- 
denziano l'importanza di mettere a pun- 
to una serie di farmaci per ciascuna delle 
principali infezioni opportunistiche ca- 
ratteristiche dell' AIDS. È necessario 
avere a disposizione diverse alternative 
cosi che un paziente che non reagisca a 
un composto o non ne tolleri gli effetti 
collaterali o l'interazione con altri far- 
maci (come la zidovudina) possa far ri- 
corso ad altre terapie. 

TI trattamento in tre fasi delle principali 
■*■ infezioni opportunistiche correlate al- 
l'Ai DS ha avuto successo soprattutto 
nel caso della polmonite da P t carimi. 
sebbene La strategia di sopravvivenza del 
microrganismo sia ancora sconosciuta. 
Questo agente patogeno, che usualmen- 
te infetta i polmoni (ma può colpire altri 




r 






•> : J 2**>\ 







In un individuo sano [in atto) gli alveoli polmonari contengono solamente gas* mentre 
appaiono riempiti di liquido e detriti cellulari [in rosai* che impediscono gli scambi gassosi 
e il trasporto di ossigeno verso gli organi vitali, nei pazienti alletti da polmonite da Pneu- 
mocystis carimi un basso), una delle principali infezioni opportunìstiche correlate air AIDS. 



32 le scienze n. 266, ottobre 1990 



LE scienze n. 266, ottobre 1990 33 



organi), è spesso classificato come un 
protozoo, ma nuovi studi sembrano in- 
dicare che possa trattarsi di un fungo. 

Probabilmente P\ carimi sì trasmette 
da un individuo all'altro tramite minu- 
scole goccioline di saliva esalate nell'a- 
ria, allo stesso modo della tubercolosi o 
dell'influenza. Sebbene si pensi che nei 
polmoni della maggior parte degli adulti 
sia normalmente presente P. carimi, non 
è mai stato documentato un solo caso di 
polmonite attribuibile a questo micror- 
ganismo in indivìdui con sistema immu- 
nitario integro. 

Negli immunodepressi ì microrgani- 
smi invadono gli alveoli, le unità funzio- 
nali del polmone dove avviene lo scam- 
bio di ossigeno e anidride carbonica. 
Nonostante il precario staio del sistema 
immunitario, l'organismo dei pazienti 
affetti da AIDS organizza una risposta 
infiammatoria all'infezione. Leucociti, 
anticorpi e altre proteine del sangue si 
accumulano negli alveoli e il tessuto pol- 
monare appare infiltrato da globuli bian- 
chi. Inoltre sia il tessuto, sia gli alveoli 
si riempiono dì liquido impedendo gli 
scambi gassosi e quindi il trasporto di 
ossigeno verso gli organi vitali. Una pol- 
monite da P. carimi non curata è quasi 
sempre fatale, ma anche con una terapia 
adeguata l'esito è infausto nel 10-20 per 
cento dei casi, 

E medici usano trattare questa malattia 
con due farmaci. Uno è Tise lionato di 
pentamidina somministrato per via en- 
dovenosa. (La forma aerosol del prò dot- 
to, inalabile e molto pubblicizzata, ha 
una notevole utilità preventiva ed è pro- 
mettente per il trattamento non tossico 
dell'infezione acuta, ma non ne è stata 
ancora definitivamente dimostrata l'effi- 
cacia per la terapia intensiva.) L'altro 
farmaco è il cotrimossazolo sommini- 
strato per via orale o endovenosa, che è 
una associazione dì due altre sostanze, il 
sul fame tossazolo e il trimeioprim. 

Si ritiene che in certi microrganismi, e 
presumibilmente anche in P carimi, la 
pentamidina prevenga La replicazione 
microbica inibendo la sintesi di DNA, 
anche se il suo meccanismo d'azione non 
è ancora stato chiarito. Anche it cotri- 
mossazolo impedisce la sintesi del DNA 
{sì veda V illustrazione a pagina 37) \ il 
sulfameiossazolo in esso contenuto ini- 
bisce infatti l'attività di un enzima - la 
diidropteroatosintetasi(DHPS)- che fa- 
vorisce la produzione di un derivato del- 
l'acido folico necessario per la produzio- 
ne dei nucleotidì, gli elementi costitutivi 
del DNA, Gli inibitori della DHPS sono 
interessanti perché impediscono la sìnte- 
si del DNA microbico, ma non interfe- 
riscono in quella del DNA umano. Le 
cellule dell'uomo e degli altri mammiferi 
non necessitano di questo enzima (e 
quindi non lo possiedono) perché posso- 
no utilizzare i folati degli alimenti. 

Il trimetoprim contenuto nel cotri- 
mossazolo completa L'azione del sul fa- 
metossazolo inibendo l'attività di un en- 
zima correlato alla DHPS, la diidrofola- 



toreduttasi (DHFR), che trasforma il fo- 
lato sintetizzato dai microrganismi ren- 
dendolo direttamente utilizzabile nella 
produzione dei nucleotidi. Il trimeto- 
prim inibisce anche la DHFR umana, 
ma solo in minima parte. 

La pent am idina e il cotrimossazolo so- 
no entrambi molto efficaci contro P. ca- 
rimi , particolarmente se la terapia viene 
iniziata prima che si manifesti un sensì- 
bile aggravamento delle condizioni del 
paziente. Esistono tuttavia degli aspetti 
negativi. Entrambi i farmaci sono di 
scarsa utilità nei pazienti in condizioni 
molto gravi e producono sovente impo- 
nenti effetti collaterali. Circa la metà dei 
pazienti non è in grado di tollerare il pri- 
mo farmaco somministrato e deve ricor- 
rere a un preparato alternativo, La pen- 
tamidina introdotta per via endovenosa 
può compromettere la funzione renale o 
indurre una grave ipoglicemia. IL cotri- 
mossazolo può causare grave nausea, 
eruzioni cutanee, febbre, diminuzione 
del numero di leucociti e piastrine ed 
epatopatia. 

Molti ricercatori stanno mettendo a 
punto nuovi farmaci meno tossici e 
più efficaci di quelli esìstenti e con 
modalità di assunzione meno rischiose, 
per esempio, della pentamidina. Un nu- 
mero sempre maggiore di inibitori della 
DHFR e della DHPS. sia nuovi sia già 
noti» è in fase di sperimentazione clinica. 
Tra essi ci sono il trimetrexato (sommi- 
nistrato per via endovenosa) e il piri- 
trexim (per via orale), due nuovi inibito- 
ri delia DHFR. 

Altri protocolli terapeutici che vengo- 
no sperimentati clinicamente con risul- 
tati promettenti contemplano l'associa- 
zione di due composti standard - la clin- 
damicina (un antibiotico che inibisce la 
sintesi proteica batterica) e la pri machi- 
na (un antimalarico) - oppure l'associa- 
zione di trimetoprim e dapsone (un sol- 
fane inibitore della DHPS). In corso di 
sperimentazione clinica sono anche la di- 
fluorometìlornìtina, o DFMO (un inibi- 
tore della sintesi del DNA in alcuni pa- 
rassiti), e un agente chiamato provviso* 
riamente composto 566C80. che blocca 
Tatti vita dei mitocondri, I ricercatori 
stanno peraltro controllando in vitro l'ef- 
ficacia contro P, carimi di migliaia di ini- 
bitori della DHPS e della DHFR. 

Pe r cont r astare in maniera più efficace 
l'infezione acuta vengono prese in con- 
siderazione anche terapie che non aggre- 
discono direttamente il microrganismo. 
Diversi studi clinici recenti indicano che 
la pronta somministrazione di glicocor- 
ticoidi riduce l'infiammazione polmona- 
re e aumenta la possibilità di sopravvi- 
venza dei pazienti in gravi condizioni. 
Dal momento che gli individui colpiti 
da P. corinti sono privi del surfattante 
naturale polmonare, una sostanza ten- 
sioattiva che mantiene aperti gli alveoli, 
in futuro potrebbe essere sperimentata 
una terapia sostitutiva con un tensioatti- 
vo artificiale somministrato per aerosol. 



Per quanto riguarda la profilassi pri- 
maria e secondaria, la pentamidina ina- 
lata, il dapsone e il cotrimossazolo sem- 
brano essere tutti molto efficaci, L'effi- 
cacia e la tossicità relative di questi com- 
posti, tuttavia, sono ancora in via di ac- 
certamento. Sulla base della scoperta di 
Phair, parrebbe che la profilassi prima- 
ria specifica per P. carimi debba iniziare 
non appena il numero di linfociti T 
CD4+ scende al di sotto dei 200 per mil- 
limetro cubo, o ancor prima se il pazien- 
te soffre di ARC o AIDS. 

L'importanza della profilassi seconda- 
ria emerge chiaramente esaminando dati 
recenti. Fino a non molto tempo fa circa 
la metà di tutti i pazienti sopravvissuti a 
un primo episodio di polmonite da P, 
carinii subiva una recidiva nel giro di un 
anno» che assumesse o meno zidovudi- 
na, Oggi soltanto il 10-20 per cento dei 
soggetti trattati con zidovudina e un 
agente profilattico specifico per P. cari* 
nii mostra una ricomparsa dell'infezione 
nel giro di un anno, Inoltre, coloro che 
non ricevono una terapia preventiva spe- 
cifica hanno una aspettativa di vita di un 
solo anno dopo il primo episodio di pol- 
monite; affiancando una profilassi se* 
condaria alla zidovudina la sopravviven- 
za media sale a circa tre anni. 

Questi dati sono incoraggianti; siamo 
tuttavia in molti a sperare che la dispo- 
nibilità di nuovi farmaci per il trattamen- 
to dell'infezione acuta da P. carinii con- 
senta di mettere a punto terapie preven- 



tive efficaci, non tossiche, scevre di ef- 
fetti collaterali e poco costose. 

progressi nello sviluppo di nuove te- 
-L rapie per altre infezioni opportuni- 
stiche correlate alFAIDS sono stati più 
lenti. Un caso eloquente è quello della 
toxoplasmosi. La malattia è provocata 
da Toxoplasmagondii, un parassita uni- 
cellulare t cui ospiti sono alcuni piccoli 
mammiferi e uccelli e l'uomo. Può veni- 
re trasmesso all'uomo tramite il contatto 
con feci di animali infetti o attraverso il 
consumo di carni infette poco colte, Ne- 
gli Stati Uniti circa il 20 per cento della 
popolazione adulta ospita il parassita, di 
solito nel tessuto cerebrale o muscolare, 

L'infezione latente si attiva, in genere 
nell'encefalo, nel 5-15 per cento dei pa- 
zienti affetti da AIDS. I parassiti si ri- 
producono velocemente e inducono una 
risposta infiammatoria che distrugge le 
cellule cerebrali, provocando sintomi 
quali convulsioni, confusione mentale 
ed emiparesi. 

Per ora Tunica terapia efficace per la 
toxoplasmosi e un'associazione dì piri- 
metamina (un inibitore della DHFR) e 
sulfadiazina (un inibitore della DHPS) 
somministrabile oralmente. Gran parte 
dei pazienti mostra un miglioramento 
nel giro di una-tre settimane, via via che 
lo sviluppo dei microrganismi viene im- 
pedito e rinfiammazione del tessuto ce- 
rebrale diminuisce: purtroppo Ì danni al- 
le cellule cerebrali sono per lo più irre- 



versibili. Come nel caso della polmonite 
da P. carinii. è indispensabile la profilas- 
si secondaria, poiché i farmaci prescritti 
per la toxoplasmosi reprimono l'infezio- 
ne, ma non la guariscono. La terapia 
provoca molti degli effetti collaterali già 
segnalati per il cotrimossazolo e infatti 
circa il 30 per cento dei pazienti non tol- 
lera un ciclo di trattamento completo. 

Fortunatamente, vi sono alcune alter- 
native promettenti. In una sperimenta- 
zione clinica a scala ridotta (e non ancora 
ripetuta) un'associazione di pirimetamt- 
na, come inibitore della DHFR, e di 
clindamicina, come agente antibatteri- 
co, si è dimostrata quasi altrettanto effi- 
cace deirassociazione standard pirime- 
tamina-sulfadiazina. Oltre a ciò. la ricer- 
ca di altri antibiotici dotati dì attività 
contro T. gondìi. in vitro o nei topi, ha 
permesso di identificare un certo nume- 
ro di possibili candidati. Tra di essi vi 
sono analoghi della clindamicina e della 
tetraciclina , oltre ad alcuni inibitori della 
DHFR e della DHPS: nessuno di questi 
composti, tuttavia, è mai stato studiato 
a fondo nell'uomo. 

Seguendo una diversa strategìa, alcuni 
ricercatori cercano di sfruttare il fatto 
che TV gondii può sopravvivere solo aU 
l'interno delle cellule, tra le quali prefe- 
risce i macrofagi, Negli individui con si- 
stema immunitario normale i macrofagi, 
dopo aver ingerito i microrganismi inva- 
sori* vengono attivati per distruggerli. I 
fattori di attivazione sono l'interferone 



gamma e altre citochine scerete dai lin- 
fociti T. Ma. a causa della distruzione 
dei linfociti F, l'interferone gamma vie- 
ne prodotto in piccola quantità nei sog- 
getti con infezione da HIV, sicché ì ma- 
crofagi ingeriscono il parassita, ma non 
lo distruggono. Alcuni ricercatori stanno 
valutando ì possibili vantaggi dell'ag- 
giunta di interferone gamma al tratta- 
mento standard con pirimetamina e sul- 
fadiazina. In colture di cellule e in ani- 
mali da laboratorio questo metodo ha 
migliorato l'efficacia della terapia com- 
binata e si prevede che la sperimentazio- 
ne clinica inizi fra breve tempo. 

Il trattamento con pirimetamina e sul- 
fadiazina viene dì norma proseguito per 
tutta la vita del paziente onde prevenire 
recidive. Si discute, tuttavia, sull'oppor- 
tunità dì effettuare in tutti i pazienti la 
profilassi primaria. Negli Stati Uniti, 
molti medici esitano a somministrare 
farmaci potenzialmente tossici a tutti i 
sieropositivi per l'HIV in quanto, senza 
trattamento, solo un quinto o meno di 
essi è destinato ad ammalarsi di toxopla- 
smosi. In Francia, dove questa malattia 
è molto più comune, la profilassi prima- 
ria è invece raccomandata con frequen- 
za. Studi per valutare i possibili vantaggi 
di queste terapie sono in corso sia negli 
Stati Uniti sia in Europa. 

Al contrario della toxoplasmosi, le più 
** comuni infezioni batteriche che af- 
fliggono gli adulti affetti da AIDS e che 




Le infezioni opportunistiche che colpiscono 
con frequenza i soggetti contagiali da HIV, 
il virus responsabile dell* AIDS, si prese n* 



7 8 

TEMPO TRASCORSO DALLA DIAGNOSI DI INFEZIONE DA HtV (ANNI) 

tano in genere in una successione correlata alla concentrazione 
ematica dei linfociti T C 1)4+ o linfociti helper. lì numero di queste 
cellule, che diminuisce nel tempo, rispecchia il grado di compro- 



missione del sistema immunitario causata dal virus. Il grafico è 
stato costruito a partire da dati raccolti in gran parte da Suzan- 
ne M. Crowe del Fairfield Hospital di Melbourne, in Australia. 



34 LE SCIENZE n. 266, ottobre 1990 



le scienze n. 266, ottobre 1990 35 




Alcune infezioni sono diagnosticabili su Ha base di immagini cliniche. Per esempio, la 
toxoplasmosU che può provocare convulsioni, produce nel cervello lesioni delimitate che 
appaiono come aree chiare nelle immagini ottenute con il metodo delia risonanza magne- 
tica (a sinistra). In questa fotografia di retina danneggiata da e itomela lo virus {a destra) 
le zone giallastre rappresentano il tessuto necrotico, mentre le chiazze rosse (che copro- 
no i vasi sanguigni) indicano un'emorragia nella retina. (La zona scura, che corrisponde 
a un distacco della retina dai Tondo dell'occhio, è in parte responsabile dell 1 emorragia, ) 



sono causate da organismi del ceppo 
Mycohucterium avium raramente coi pi - 
scono il cervello; esse però danneggiano 
molti altri organi e tessuti, in particolare 
i polmoni, il fegato, la milza, l'intestino, 
ì linfonodi, il midollo osseo e il sangue, 
in effetti di solito sono disseminate in 
tutto l'organismo. 

Questi batteri, che sono strettamente 
correlati all'agente responsabile della tu- 
bercolosi (A/, tuberi itìosis), sono diffu- 
sissimi nell'ambiente, per esempio nella 
polvere, nel terreno, negli animali da 
cortile e nei prodotti caseari Presumi- 
bilmente essi penetrano nell'organismo 
con l'inalazione di polvere e di minusco- 
le goccioline o tramite il cibo e l'acqua. 
Nonostante la loro enorme diffusione, 
raramente diventano virulenti, anche in 
persone immunodepresse per cause di- 
verse dall' AIDS, 

Tuttavia quasi il 50 per cento dei pa- 
zienti affetti da AIDS presenta infezioni 
diffuse al momento del decesso. Negli 
individui immunologicamente integri, i 
micobatteri inducono un'energica rispo- 
sta immunitaria mediata da cellule: nei 
malati di AIDS i tessuti contengono 
quantità enormi di M, avium. ma Vm- 
fiammazione appare minima, 

In effetti, i micobatteri proliferanti 
potrebbero essere la causa dei sintomi 
che spesso accompagnano l'infezione, 
quali febbre, sudorazione, perdita di pe- 
so e affaticamento, ma non lo si è mai 
detcrminato con certezza: nei pazienti 
con AIDS sono infatti generalmente in 
corso anche infezioni causate da molti 



altri microrganismi (come il citamegalo- 
virus e lo stesso HIV). Così pure, la di- 
minuzione di globuli rossi, globuli bian- 
chi e piastrine che può accompagnare 
l'infezione da M. aviti/ti potrebbe essere 
causata dall'invasione del midollo osseo 
da pane dei micobatteri. D'altro canto, 
in alcuni pazienti che presentano enormi 
quantità di micobatteri in tutto l'organi- 
smo non si riscontrano quasi segni di di- 
sfunzioni specìfiche. 

Purtroppo, il farmaco di elezione con- 
tro la tubercolosi, l'isonìazìde, invaria- 
bilmente non riesce a controllare la pro- 
liferazione di M. avium. I ricercatori 
hanno perciò sperimentato un gran nu- 
mero di altri prodotti, alcuni dei quali, 
da soli o in associazione, sono in grado 
di limitare la crescita di questi batteri in 
colture cellulari o in topi immunode- 
pressi. Fra i composti spesso prescritti 
per la tubercolosi, quelli classificati co- 
me amminoglicosidi (quali la streptomi- 
cina e la amikacina), oltre ai farmaci del 
gruppo delle rifamicine e aHetambuto- 
lo. hanno tutti mostrato una eerta attivi- 
tà contro Mi tiviunu La stessa cosa vale 
per alcuni antibiotici; la ciproflossacina, 
rimipenem e la clofazimina. 

Due sperimentazioni cliniche distinte 
hanno dimostrato che associazioni di 
quattro o cinque di questi farmaci pos- 
sono ridurre la quantità di batteri in cìr- 
colo e alleviare sintomi quali la febbre. 
Se ulteriori studi confermeranno queste 
scoperte, associazioni di queste sostanze 
potrebbero essere utilizzate anche nella 
profilassi primaria e secondaria. 



A nche le ricerche sui trattamenti per le 
*** principali infezioni fungine e virali 
correlate all'AIDS stanno compiendo 
progressi, Per esempio, è stato sviluppa- 
to un nuovo protocollo terapeutico per 
la meningite criptoeoccica - che colpisce 
circa il 10 per cento dei pazienti con 
AIDS negli Stati Uniti - mentre altri so- 
no in fase sperimentale. 

L'organismo responsabile della me- 
ningite criptoeoccica, il lievito Crypto- 
cocete neaformans, assomiglia stretta- 
mente al fungo che causa il mughetto, 
ma con una importante differenza: C, 
neoformans si diffonde molto più facil- 
mente attraverso la cute e le mucose. Il 
suo rivestimento mucillaginoso fa sì che 
macrofagi, granulociti e altre cellule del 
sistema immunitario lo fagocitino con 
difficoltà e che, se ingerito, possa resi- 
stere ai danni provocati dagli enzimi di 
quelle cellule. Ciò che rimane un mistero 
è il meccanismo patogene ti co di C. neo- 
fomurns; finora non sono state identifi- 
cate sostanze tossiche prodotte da que- 
sto organismo. 

Si ritiene che l'infezione inizi nei pol- 
moni, dove nei soggetti in condizioni 
normali di salute resterebbe probabil- 
mente confinata. Nei pazienti inumino- 
depressi, tuttavia* il microrganismo in- 
vade il circolo sanguigno per poi inse- 
diarsi nelle meningi, le membrane che 
rivestono l'encefalo. L'invasione, poten- 
zialmente letale, delle meningi è denun- 
ciata da l'orti dolori al capo, rigidità della 
nuca e spesso febbre. 

Per 30 anni, e fino a tempi recenti, 
Tanfotericina B è stato l'unico tratta- 
mento disponibile. Questo farmaco si le- 
ga all'ergosterolo, una sostanza simile al 
colesterolo che sì trova solo nella mem- 
brana cellulare dei funghi. Il legame 
danneggia la membrana e la fuoriuscita 
del materiale intracellulare provoca la 
morte della cellula. 

Purtroppo il farmaco, che deve essere 
somministrato per via endovenosa, dan- 
neggia i globuli rossi dell'uomo e può 
avere effetti nocivi sui reni. Oltre a ciò, 
la formulazione necessaria per rendere il 
composto attivo adatto alla sommini- 
strazione endovenosa produce in molti 
casi sintomi simili a quelli di una forte 
influenza, come brividi e febbre alta. 
Anche dopo un ciclo completo di tera- 
pia, nel 21) per cento circa dei malati di 
AIDS affetti da meningite criptoeoccica 
Tesito è infausto. 

In teoria. Tanfotericina B potrebbe 
realmente eliminare le infezioni da fun- 
ghi e non solo rallentarne il decorso, ma 
gli alti dosaggi richiesti finirebbero pro- 
babilmente per uccidere anche il pazien- 
te, Dato perciò che con i dosaggi som- 
ministrati Tinfezìone non viene elimina^ 
ta, i pazienti che sopravvivono devono, 
anche in questo caso, ricevere una tera- 
pia preventiva per il resto della vita, sot- 
toponendosi a iniezioni endovenose una 
o due volte alla settimana. 

Un farmaco alternativo che possa es- 
sere assunto oralmente rappresentereb- 



be un notevole progresso per la profilas- 
si, I composti che nelle prove cliniche si 
sono dimostrati più promettenti appar- 
tengono a un gruppo di antifungìm, gli 
imidazoli, che inibiscono la sintesi del- 
l'ergosterolo; due di essi - Titraconazolo 
e il fluconazolo - suscitano particolare 
speranza. Le prime prove cliniche con 
l'itraconazolo sembrano indicare un'ef- 
ficacia quasi pari a quella deiranfoteri- 
cina B. ma una minore tossicità. L'ana- 
lisi di uno studio ad ampio raggio recen- 
temente completato fa pensare che il flu- 
conazolo possa essere efficace quanto 
ranfoterietna B, tanto che il farmaco è 
ora autorizzato in molti paesi, compresi 
gli Stati Uniti. Un altro studio in corso 
deve valutare l'utilità del composto a 
scopo profilattico. 

Farmaci da somministrare per via ora- 
le sono urgentemente richiesti an- 
che per la prevenzione e la cura delle 
infezioni da cìtomegalo virus. Più della 
metà di tutti i cittadini statunitensi in età 
adulta è stata infettata da questo virus, 
o tramite rapporti sessuali o semplice- 
mente durante la convivenza con altre 
persone, soprattutto in condizioni igie- 
niche precarie. 

Negli adolescenti e negli adulti sani, 
l'infezione da cìtomegalo virus può ma- 
nifestarsi con sintomi che ricordano la 
mononucleosi, ma in genere Ì pazienti 
non si accorgono neppure dell'invasione 
virale. Come avviene per gli altri virus 
erpetici, Tinfezìone iniziale è seguita nei 
soggetti sani da una situazione di infe- 
zione latente che dura per tutta la vita 



UTILIZZAZIONE DEI FOLATI 



NADPH + H' 



INlBtTORI DELLA DHF - 
(COMPETITORI 
DEL DIIOROFOLATOJ 

TRiMETOPHIM 
TRIMETRI EXATO 
PIRITREXIM 
PIRIMETAMINA 



-> 



senza dare manifestazioni patologiche. 
Nei malati dì AIDS l'agente patogeno 
può essere sovente rilevato in grande 
quantità nel sangue e in molti altri tes- 
suti. I danni funzionali, tuttavia, sono di 
solito limitati all'occhio e all'apparato 
gastrointestinale. Nel 7 per cento circa 
delle persone affette da AIDS il virus 
invade i coni e i bastoncelli, che sono le 
cellule fotorecetlrici della retina. L'infe- 
zione finisce per uccidere le cellule col- 
pite, danneggiando irreparabilmente la 
visione. Inoltre, è probabile che il distac- 



NADP 



J 



co delle zone necrotiche della retina e la 
conseguente emorragia provochino ceci- 
tà completa e improvvisa. 

In un altro 5 per cento di malati di 
AIDS il virus si annida nell'apparato di- 
gerente, in un punto qualsiasi dalla boc- 
ca al retto, anche se colpisce più frequen- 
temente l'esofago e il colon. Le ulcere 
nell'esofago rendono dolorosa la deglu- 
tizione e i dolori sì possono irradiare an- 
che al torace; nel colon danno spesso 
luogo a dolori addominali e a diarrea. 
Talvolta le emorragie incontrollabili che 



DIIDROFOLATO 
REDUTTASI 

(DHFR) 



DIIDROPTERIDINA 



H ? - 



(MK^S 



ADDO 
PARA-AMMINOBENZOICO (PABA) 



SINTESI DEI FOLATI 



D1IDROPTEROATO 

SINTETASI 

(DHPS] 



O 



INlBfTOR! DELLA DHPS jCOMPETTTOR» DEL PA3AJ 
SUIFAMETOSSAZOLO 
SULFADiAZlNA 
DAPSONE 



H ? - 



Ba-ga 



DIIDROPTEROATO 



3- 



GLUTAMMATO 



9 



SHÌH3 



DIIDROFOLATO (FH ? ) 



-•v 



ShSH 




PRECURSORE 
DEL NUCLEOTIOE 
TIMINA 



PRECURSORE 
DEL NUCLEOTIDE 
URAC1LE 




H 4 - 




Molti farmaci che si sono dimostrati efficaci contro la polmonite da 
Pneumocysiìs carimi o la toxoplasmosi [nei riquadri rossi) interfe- 
riscono con l'attività dì due enzimi presenti nei microrganismi re- 
sponsabili, la diidropteroatosintetasi <DHPS) e la dìidrofotatore- 
duttasi (DHFR). Questi enzimi prendono parte alta sintesi! ut atto) 
e all'utilizzazione l in basso) dei folatì (derivati dell'arido folico) per 
la produzione di nudeotìdi, i costituenti del DNA. Gli inibitori della 
DHPS assomigliano all'acido para-animi no hen/uico (PÀBAl, una 



SINTESI 

DEI NUCLEOT1DI 

GUAMNA 

EADENINA 



mi hu n ita del prodotto principale della sintesi dei inlati: it d i idrofola • 
to. Legandosi alla DHPS, i farmaci impediscono all'enzima di in- 
teragire con il PABA e quindi di legare quest'ultimo alla diidro- 
p tendina, un'altra subunità del diìd rotolato. Gli inibitori della 
DHFR sono analoghi del dìidrofolato. Competendo per il legame 
con la DHFR. essi impediscono la conversione del vero folato 
in una forma che possa essere a sua volta utilizzata nella sintesi 
dei nucleotidi. La lettera E nel riquadro rappresenta altri enzimi. 



36 le scienze n. 266, ottobre 1990 



LE SCIENZE n. 266, ottobre ì 990 37 



si verificano nei tessuti danneggiati del- 
l'esofago e del colon possono condurre 
a morte il paziente. 

I farmaci attualmente disponibili per 
il trattamento delle patologie da citome- 
gaio virus sono tossici e devono essere 
somministrati pervia endovenosa. Uno 
di essi, il ganciclovir, è approvato sia dal- 
la FDA negli Slati Uniti sia in diversi 
altri paesi; un secondo, il foscarnet, è 
ancora in fase sperimentale, ma si pre- 
vede che verrà autorizzato fra breve 
tempo. Entrambi i composti inibiscono 
selettivamente la DNA-polimerasi vira- 
le, un enzima essenziale per la sintesi di 
nuovo DNA dai nucleotidi e quindi an- 
che per la replicazione virale. Per altri 
aspetti , tuttavia* i due farmaci sono mol- 
to diversi. 

II ganciclovir, che è efficace contro 
molti virus erpetici, è un analogo di un 
nucleoside Ja guanosina (un precursore 
di un nucleotide), e proprio la sua capa- 
cità di imitare la guanosina ne spiega Fat- 
tività antivirale, Le cellule infettate dal 
virus addizionano gruppi fosfato al far- 
maco come se fosse guanosina, forman- 
do ganciclovir trifosfato, un finto nu- 
cleotide. Questo compete nel formare 



legami con la DNA-polimerasi virale e 
la inattiva impedendole di legare i veri 
nucleotidi. Purtroppo il ganciclovir vie- 
ne fosforilato in una certa misura anche 
nelle cellule non infettate e può quindi 
interferire con fattività della DNA-po- 
limerasi umana. 

L altro farmaco, il foscarnet, è un ana- 
logo di due fosfati che la DNA-polime- 
rasi elimina é&i nucleotidi trifosfau pri- 
ma di addizionarli a una catena di DNA 
in formazione. Anch'esso viene assunto 
dalla DNA-polimerasi virale e ne impe- 
disce il legame con i nucleotidi. Il foscar- 
net è attivo contro la DNA-polimerasi di 
tutti i virus erpetici che infettano l'uomo 
e anche contro la DNA-polimerasi dello 
stesso HIV; non è invece attivo contro 
l'enzima umano. 

Interferendo con la replicazione vira- 
le, entrambi i farmaci arrestano il decor- 
so della patologia retinica causata dal ci- 
tomegalovirus e sembra che blocchino la 
diffusione dell'infezione anche in altri si- 
ti. Ma, dato che non eliminano realmen- 
te il virus, devono, come ai solito, essere 
assunti con continuità, Per la profilassi 
secondaria il ganciclovir e il foscarnet 
devono essere somministrati una o più 



volte al giorno, il che richiede l'installa- 
zione di un catetere collegato a una vena 
del torace» Sebbene questa soluzione 
consenta la terapia, rende anche il pa- 
ziente suscettibile a infezioni dei tessuti 
circostanti il catetere. 

Un altro aspetto negativo è la tossicità 
del ganciclovir nei confronti dei globuli 
bianchì, in particolare dei granulociti. 
Nel 10-20 per cento dei pazienti la dimi- 
nuzione dei granulociti è cosi grave da 
richiedere la sospensione del trattamen- 
to (dato che un basso livello di granulo- 
etti rende il paziente vulnerabile a infe- 
zioni batteriche talvolta mortali). 11 fo- 
scarnet può causare disfunzioni renali e 
anomalie metaboliche e neurologiche, 
tutte fortunatamente reversìbili. 

Particolarmente preoccupante è la ca- 
pacità dimostrata dal citomegalovirus di 
sviluppare resistenza al ganciclovir. Il 
problema non è ancora diffuso, ma di- 
versi pazienti che erano stati trattati con 
questo farmaco a un certo punto non 
hanno mostrato più alcuna risposta. Per 
fortuna, nelle prove in laboratorio e in 
sperimentazioni cliniche preliminari, i 
ceppi resistenti al ganciclovir si sono ri- 
velati sensibili al foscarnet. In laborato- 



CELLULA INFETTATA DA VIRUS 



# # • #-FOSFATO 



=% f- 



NUCLEO 



TERMINAZIONE DI CATENA 




ACICLOVIR 
(ACV) 




dt^lSU 



<^^^\ 



ACV ACV-MP 

I TK„ I 



ACV-TP 



GANCICLOVIR 
(GCV| 




Aì^^ju 



GCV 



GCV-MP GCV-TP 



VIDARABINA 
(VID) 



•A^fck^ 



VID 



VtD-MP 



FOSCARNET 



TK — TlMIDINACHfNASI 

DCKc - OEOSSlClTIDfNACHINAS] CELLULARE 

^ — ALTRI ENZIMI CELLULARI 

I farmaci contro i virus erpetici (air estrema sinistra) interferiscono 
con la capacità delle DNA-polimerasi virali di costruire nuovo DNA 
dai nucleotidi, Questi enzimi normalmente rimuovono due dei tre 
gruppi fosfato dì un nucleotide e poi col lega no quanto resta a un 
gruppo OH del nucleotide aggiunto in precedenza. I/ariclovir, il 
ganciclovir e la vid ara bina sono tutti fosforila ti dagli enzimi nelle 
cellule infettate da! virus* e quindi assomigliano a normali nucleo- 
tidi con tre gruppi fosfato {riquadro di sinistrai; il foscarnet simula 
il gruppo difosfato normalmente rimosso dai nucleotidi a opera di 




MP — MONOFOSFATO 

TP _ TRIFOSFATO 

v - VIRALE c^- CELLULARE 

una poHmerasi. L'atri e lovir trifosfato può bloccare la produzione 
del DNA (a destra) facendo terminare la catena (a>: se viene ag- 
giunto a un filamento di DNA in formazione, ne arresta la crescita 
perché manca del gruppo OH necessario per l'addizione del nu- 
cleotide successivo. L'aciclovir trifosfato - come il ganciclovir e 
la vid ara bina fosforila! i - può anche legarsi fortemente alla pò lime - 
rasi, bloccandone il sito di legame con il nucleotide e impedendo 
all'enzima di svolgere la sua attività con i veri nucleotidi (b). Anche 
il fnscarnet agisce bloccando il sito di tegame con il nucleotide (e). 



rio si è tuttavìa riusciti a produrre ceppi 
mutanti di citomegalovirus che sono re- 
sistenti anche al foscarnet; nessuna di 
queste varianti è stata finora identificata 
nei pazienti, ma sembra sia solo una que- 
stione di tempo. 

A causa del fenomeno della resistenza 
e dei problemi posti dalla somministra- 
zione per via endovenosa, vi è urgente 
necessità di terapie alternative. Abbia- 
mo buone speranze che nel prossimo fu- 
turo vengano messi a punto uno o più 
analoghi del ganciclovir da somministra- 
re oralmente. Uno di questi farmaci, lo 
HOE-602 (cosi chiamato dal nome della 
ditta produttrice, la società Hoechst) è 
in fase dì sperimentazione clinica nella 
Germania Federale. La sostanza viene 
facilmente assorbita dall'apparato dige- 
rente e trasformata in ganciclovir nel- 
l'organismo. 

Anche un altro analogo dei nucleosidi 
- Taciciovir - potrebbe rivelarsi utile. Co- 
me il ganciclovir, esso inibisce la DNA- 
-polìrnerasi virale, ma è notevolmente 
meno tossico e può essere assunto per 
via orale. D'altro canto, laciclovir è an- 
che molto meno attivo del ganciclovir 
nei confronti del citomegaìovirus. Cio- 
nonostante, alti dosaggi del farmaco sì 
sono dimostrati in grado di sopprimere 
l'attivazione dell'infezione da citomega- 
lovirus in pazienti sottoposti a trapianto 
e si ritiene che potrebbero avere lo stesso 
effetto anche nei malati di AIDS. 

Intanto continua la ricerca di farmaci 
che siano non solo meno tossici del gan- 
ciclovir e del foscarnet, ma anche ugual- 
mente o più efficaci neirinibire la DNA- 
-polimerasi virale. Nello stesso tempo si 
tenta di mettere a punto prodotti che 
interferiscano con funzioni virali diverse 
dalla replicazione del DNA, nella spe- 
ranza che questi agenti siano attivi con- 
tro i virus resistenti al ganciclovir e al 
foscarnet. 

Contrariamente a quanto avviene con 
il citomegalovirus, due altri virus er- 
petici rilevanti nell'AIDS - il virus del- 
l'herpes simplex di tipo 1 e quello del- 
l'herpes simplex di tipo 2 - provocano 
infezioni ricorrenti anche in molti indi- 
vidui con sistema immunitario integro. 
In genere questi virus provocano, rispet- 
tivamente, eruzioni circoscritte intorno 
alla bocca e ulcerazioni ricorrenti nella 
regione genitale. Nel contesto dell'infe- 
zione da HIV queste lesioni non sono 
circoscritte, ma invece di guarire tendo- 
no a ingrandirsi progressivamente e, da- 
to che sono dolorose, possono pregiudi- 
care l'appetito qualora si presentino in- 
torno alla bocca. 

Sebbene Taciclovir non sia estrema- 
mente efficace contro il citomegalovirus, 
si è dimostrato una terapia eccellente 
contro i virus dell'herpes simplex, An- 
che nei pazienti con vaste ulcerazioni si 
ottiene un soddisfacente controllo delle 
lesioni nel giro di poche settimane. Pur- 
troppo, sembra che anche i virus del- 
l'herpes simplex stiano sviluppando una 



PÉNTANIIDINA IN FORMA INALABILE; UN FARMACO PREVENTIVO EFFICACE 
CONTRO LA POLMONITE DA PNEUMOCYSTtS CARINI! (PCP) 




6 8 10 12 14 

MESI OAL PRIMO EPISODIO DI PCP 



18 20 



resistenza sempre maggiore al farmaco. 
Gran parte dei ceppi resistenti riesce 
a sfuggire alla distruzione da parte del- 
l'acido vir in quanto non produce quan- 
tità significative di un enzima, la timidi- 
nachinasi. La versione virale dell'enzima 
provoca la fosfori! azione de l r acido vi r, 
uno stadio fondamentale nell'attività di 
tutti i farmaci analoghi a nucleosidi. 
L*enzima virale non è tuttavia essenziale 
per la replicazione dei virus dell'herpes 
simplex, che sono in grado di compensa- 
re la carenza di questo enzima. 

Una strategia logica per far fronte ai 
ceppi carenti "di timidinachinasi consiste 
nel somministrare un analogo di un nu- 
cleoside che possa essere fosforilato da- 
gli enzimi umani nelle cellule infettate. 
Uno di questi farmaci è la vidarabina, 
che da più dì 10 anni viene utilizzata per 
curare infezioni gravi da virus dell'her- 
pes simplex e varicella-zoster. Almeno 
in vitro molti ceppi di virus dell'herpes 
simplex resistenti aU'aciclovirsi sono di- 
mostrati sensibili alla vidarabina. Que- 
sta scoperta fa ritenere che questo far- 
maco possa dimostrarsi utile dove l'aci- 
clovir fallisce, anche se deve essere som- 
ministrato per via endovenosa. 

Dato che il foscarnet non richiede fo- 
sfori! azione per essere attivato, potreb- 
be anch'esso rivelarsi efficace e le prove 
dì laboratorio e gli studi clinici prelimi- 
nari sembrano incoraggianti. Tuttavia si 
sono già osservati ceppi di virus de ir her- 
pes simplex resìstenti al foscarnet. 

Come dimostra i! problema dei ceppi 
virali resistenti ai farmaci, le diffi- 
coltà da superare sono formidabili . Olt re 
a farmaci di facile somministrazione, 
non tossici ed economici da utilizzare a 
scopo profilattico devono essere messi a 
punto diversi trattamenti efficaci perria- 
scuna delle principali infezioni opportu- 
nistiche che colpiscono i maiali di AIDS. 
In caso contrario, le infezioni e altre pa- 
tologie correlate alKAIDS (come certe 
forme di tumore) che non possono esse- 
re messe sotto controllo prenderanno 



semplicemente il posto delle infezioni 
che vengono curate con efficacia. 

Sono necessarie terapie anche per in- 
fezioni opportunistiche meno comuni 
(come l'infezione da criptosporidio, un 
parassita che può provocare diarrea) o 
diffuse solo in regioni limitate del globo. 
Alcuni esempi sono Fistoplasmosi e la 
coccidioidomicosL entrambe infezioni 
fungine diffuse che sì riscontrano, gene- 
ralmente, la prima negli Stati Uniti cen- 
trali (soprattutto nella valle del Missis- 
sippi) e in poche altre regioni sparse in 
tutto il globo e la seconda nei deserti 
degli Stati Uniti sudoccidentalì e in 
America Centrale e Meridionale. 

La ricerca di nuove terapie è ben lungi 
dall'essere completata; tuttavia siamo 
soddisfatti di constatare che k patologie 
opportunistiche correlate all'infezione 
da HIV vengono sempre più considerate 
un obiettivo importante per lo sviluppo 
e lo studio di nuovi farmaci. Ogni pro- 
gresso rappresenterà una significativa 
differenza nella qualità della vita di chi 
deve misurarsi ogni giorno con gli effetti 
diretti e indiretti del micidiale virus del- 
l'AIDS. 



BIBLIOGRAFIA 

DE VITA VINCENT T , t Jr.. HELLMAN SA- 
MUEL e ROSENBERG STEVEN A. (a Cura), 

AIDS: Ethhgy, Diagnosti» Treatment 
and Prevention t seconda edizione, J. B, 
LippincottCo., 1988. 

LEOUNG GIFFORD e MILLS JOHN (a CU- 
ra), Oppanunisùc Infections in Paiients 
mài (he Acqui red Immunodefìàency 
Syndrome, Marcel Dekker, Ì989. 

" MURRAY JOHN F, e MILLS JOHN, 
Putmonary Infecnous Complications of 
Human ìmmunodefkiency Virus Infec- 
tion in «American Review of Respira- 
tory Disease», parte 1, 141, n. 5, maggio 
1990: parte ti, 141, n. 6, giugno 1990. 



38 LE scienze n. 266, ottobre 1990 



LE scienze n. 266, ottobre 1990 39 



Il linguaggio dei frattali 

Queste strutture inconcepibilmente ricche di particolari sono molto di più 
che una semplice curiosità matematica: la geometria frattale è in grado di 
descrivere in modo compendioso oggetti e processi naturali complessi 



Questi frattali sono detti lineari perché i 
loro algoritmi hanno la stessa forma di 
quelli che definiscono le rette su un pia- 
no (in gergo matematico si dice che con- 
tengono solo termini del primo ordine). 
Gii algoritmi lineari possono essere 
studiati con l'ausilio di un immaginario 
duplicatore di figure: La fotocopiatrice a 
riduzioni multiple (si veda liUustrazio- 
ne netta pagina seguente in alto). Si tratta 
di una metafora del magnifico lavoro 
di John E. Hutchinson, un matematico 
della Australian National University a 



Canberra. Questa macchina funziona 
più o meno come una normale fotoco- 
piatrice con variatore di riduzione, ma 
ne differisce per il fatto di avere più lenti 
di riduzione , ciascuna delle quali può co- 
piare l'originale collocato sulla macchi- 
na. Le lenti possono essere predisposte 
secondo diversi fattori di riduzione e le 
immagini ridotte possono essere colloca- 
te in qualsiasi posizione- La figura può 
quindi essere spostata, allungata, accor- 
ciata, riflessa, ruotata o trasformata in 
tutti i modi, purché i segmenti di ret- 



ta dell'originale rimangano segmenti di 
retta. 

Il modo in cui l'immagine viene spo- 
stata e ridotta è determinato dall'algo- 
ritmo . Mediante un anello di retroazio- 
ne l'immagine viene elaborata ripetuta- 
mente, e tende via via a una forma frat- 
tale. Un esempio di frattale ottenuto con 
un algoritmo ricorsivo (a retroazione) è 
il triangolo di Sierpinski, dal nome del 
matematico polacco Waclaw Sierpinski 
che lo descrisse per primo nel 1916. 
Questo triangolo è autosimik: ciascuna 



di Hartmut Jurgens. Heinz-Otto Peitgen e Dietmar Saupe 



«La natura ha fatto uno scherzo ai ma- 
tematici. Può darsi che ai matematici dei- 
r Ottocento difettasse V immaginazione, 
ma alia natttra no. Le stesse strutture pa- 
tologiche che ì matematici inventarono 
per affrancarsi dai naturalismo ottocen- 
tesco si rivelarono inerenti agii oggetti fa- 
miliari da cui starno circondati. » 

Freeman Dyson 

Characterizing irregularity 
in «Science», 12 maggio 1978 

1e «strutture patologiche» ideate dai 
matematici dell'Ottocento han- 
~J no assunto negli ultimi anni la 
forma di frattali, figure matematiche do- 
tate di dimensione frazionaria e non in- 
tera come accade per le ordinarie figure 
geometriche (per esempio le rette, che 
hanno dimensione uno, o i piani, che 
hanno dimensione due), Il fascino che 
esercitano oggi i frattali e dovuto in 
ampia misura al lavoro di Benoit B. 
MandelbroL del Thomas J. Watson Re- 
search Center della IBM a Yorktown 
Heights, nello Stato di New York, Man- 
delbrot coniò il termine frattale nel 1975, 
traendolo dal latino fractus, da frangere, 
cioè «rompere». Fu nel 1983 che il con- 
cetto di frattale acquisì vastissima noto- 
rietà presso i matematici, gli scienziati e 
il pubblico non specializzato, con la pub- 
blicazione dell'opera pionieristica The 
Franai Geometry of Nature dello stesso 
Mandelbrot. 

I frattali sono molto di più che una 
semplice curiosità matematica: infatti 
essi offrono un metodo assai conciso per 
descrivere oggetti e formazioni. Molte 
strutture hanno una regolarità geometri- 
ca soggiacente, detta invarianza rispetto 
al cambiamento di scala o autosomi- 
glianza. Se si esaminano questi oggetti a 
scale diverse si incontrano sempre gli 
stessi elementi fondamentali. Questa 
configurazione ripetitiva definisce la di- 
mensione frazionaria, o frattale, della 
struttura. La geometria frattale sembra 
descrivere le forme e le configurazioni 



naturali in modo più succinto ed esteti- 
camente più valido rispetto alla geome- 
tria euclidea tradizionale. 

L'invarianza di scala trova un notevo- 
le parallelo nella teoria contemporanea 
del caos, nella quale molti fenomeni, 
benché seguano rigide regole determini- 
stiche, si rivelano imprevedibili in linea 
di principio. Gli eventi caotici, come la 
turbolenza atmosferica o le pulsazioni 
cardiache, manifestano andamenti simili 
su scale temporali diverse, più o meno 
come gli oggetti dotati di autosomiglian- 
za presentano forme strutturali simili su 
scale spaziali diverse. La corrispondenza 
tra frattali e caos non è accidentale; è 
viceversa il segno di una relazione pro- 
fonda: la geometria frattale è la geome- 
tria del caos. 

Un'altra analogia tra geometria frat- 
tale e teoria del caos consìste nel fatto 
che in entrambi ì campi le scoperte più 
recenti sono avvenute grazie alla poten- 
za dei calcolatori moderni, Questi pro- 
gressi mettono in discussione la visio- 
ne tradizionale della matematica. Molti 
matematici hanno salutato l'avvento dei 
calcolatori come un segno di rinnova- 
mento e di liberazione, ma altri vedono 
in essi un allontanamento dalla matema- 
tica pura. 

I frattali sono in primo luogo e soprat- 
tutto un linguaggio della geometria; 
tuttavia i loro elementi fondamentali 
non possono essere osservati diretta- 
mente. Sotto questo profilo essi presen- 
tanti una differenza basilare rispetto ai 
ben noti elementi della geometria eucli- 
dea, come la retta e il cerchio. I frattali 
non si esprimono mediante forme pri- 
marie, bensì mediante algoritmi, vale a 
dire insiemi di procedure matematiche. 
Questi algoritmi vengono poi tradotti in 
forme geometriche con l'ausilio di un 
calcolatore, Dal momento che la riserva 
di elementi algoritmici è inesauribile, 
quando ci si sia impadroniti del linguag- 
gio frattale si può descrivere la forma 
di una nube con la stessa precisione e 



semplicità con cui un architetto può de- 
scrivere una casa mediante una pianta 
tracciata nel linguaggio della geometria 
tradizionale. 

Questa metafora è particolarmente 
appropriata per le idee fondamentali 
della geometria frattale. Le lingue indo- 
europee sono basate su alfabeti finiti 
(per esempio le 26 lettere con cui si scri- 
vono le parole inglesi o le 2 1 lettere della 
lingua italiana). Le lettere non hanno si- 
gnificato fino a quando non sono giu- 
stapposte a formare paiole. Analoga- 
mente, la geometria euclidea è costituita 
solo da pochi elementi (la retta, il cer- 
chio e così via), con i quali si possono 
costruire oggetti complessi che, in un 
certo senso, solo allora hanno un signi- 
ficato geometrico. 

Certe lingue asiatiche come il cinese 
sono invece costituite da simboli che 
hanno di per sé un significato. Nel ca- 
so di queste lingue il numero di simboli 
o elementi possibili è arbitrariamente 
grande e si può considerare infinito. La 
geometria frattale è costruita più o me- 
no allo stesso modo: è costituita da in- 
finiti elementi, ciascuno dei quali è uni- 
co e completo, Gli elementi geometrici 
sono definiti da algoritmi, che hanno la 
funzione di unità «semantiche» della lin- 
gua frattale. 

Le lingue frattali si dividono in due 
' gruppi linguistici principali: quello 
lineare e quello non lineare. Le lingue di 
entrambi i gruppi , che «si parlano* usan- 
do un numero infinito éì algoritmi, con- 
tengono un numero infinito di possibili 
immagini frattali; la lingua dei frattali 
non lineari, tuttavia, è molto più ricca e 
varia. In generale Ì dialetti seguono un 
insieme deterministico di regole (analo- 
ghe alle regole dell'ortografia e della 
grammatica). Vi è poi una famiglia, 
quella dei frattali aleatori, che differisce 
in quanto viene costruita senza regole 
deterministiche. 

lì dialetto fondamentale della lingua 
frattale è la geometria frattale lineare. 




Questa immagine al calcolatore è una rappresentazione a tre di- 
mensioni dei potenziale elettrostatico che circonda un insieme di 



Mandelbrot dotato di carica. 1 valori di potenziale creano un pae- 
saggio fantastico di catene montuose che circondano un vasto lago» 



42 le scienze n, 266, ottobre 1990 



le scienze n. 266, ottobre 1990 43 




La macchina fotocopiatrice a riduzioni multiple genera una forma frattale tramite un anello 
a retroazione. Diverse lenti trasformano una immagine iniziale arbitraria (ingresso) in una 
nuova immagine (uscita}, che è un collage di copie ridotte dell'immagine iniziale. L'im- 
magine di uscita è poi passata più volte nella macchina dando origine all'immagine finale. 



sua parte, per quanto piccola, contiene 
un'immagine che, ingrandita, riproduce 
tutto il triangolo. 

Il triangolo di Sierpinski può essere 
costruito con una fotocopiatrice a ridu- 
zioni multiple nel modo seguente. Si po- 
ne nella macchina un'immagine, la si ri- 
duce della metà e la si copia tre volte, 
una su ciascun vertice di un triangolo 
equilatero. TI risultato è una configura- 
zione triadica. Poi il procedimento si ri- 
pete: questa immagine triadica viene a 



FOTOCOPlATRfCE: SIERPINSKI 



sua volta ridotta della metà e copiata tre 
voile, e così via. Dopo che sono state 
compiute solo sei iterazioni comincia già 
a delincarsi una forma finale. Questa 
forma viene chiamata figura limite per- 
ché è il risultato al limite di un numero 
infinito di cicli della fotocopiatrice* La 
figura limite può essere approssimata in 
un tempo molto breve, ma non può es- 
sere mai ottenuta compiutamente. 

La figura limite non dipende dall'i m- 
magine di partenza. Anche se nella fo- 




Più macchine fotocopiatrici col legate in una rete possono creare immagini frattali compo- 
site, come questa foglia di felce costituita da triangoli di Sierpinski, Si collegano in parallelo 
più macchine: la prima genera i triangoli di Sierpinski, la seconda li dispone in pinnule e 
la terza genera la forma totale della foglia \a sinistrai. Si noti che le pinnule si alternano 
a destra e a sinistra dello stelo principale; su di esse i triangoli sono contrapposti {a destra). 



tocopìatrice si colloca un'immagine dì 
partenza molto particolare, come la pa- 
rola FRACTAL, dopo sei cicli di copia- 
tura la figura di partenza è quasi invisi- 
bile ed è la forma del triangolo di Sier- 
pinski a predominare, A ogni copiatura 
le tracce dell'iniziate parola FRACTAL 
diventano sempre più indistìnte. 

Lievi ritocchi alla fotocopiatrice pos- 
sono dar luogo a figure limite affatto di- 
verse: un albero frattale o un frattale a 
forma di foglia di felce (si veda l'illustra- 
zione nella pagina a fronte). La figura 
limite dipende solo dalle regole di rida- 
zione e di spostamento (algoritmi) pro- 
grammate nella macchina, 

Queste regole sono casi particolari di 
quelle che i matematici chiamano tra- 
sformazioni lineari affini del piano, vale 
a dire trasformazioni che conservano la 
rettiiinearità dei segmenti ma ne altera- 
no la scala, la posizione e T orientazione 
complessiva. Le regole di un dialetto 
frattale lineare possono essere descritte 
completamente da un certo numero (/;) 
di funzioni di trasformazione, indicate 

con [fi,/» fn] {si veda la parte stipe- 

rìore dell 1 illustrazione nella pagina a 
fronte). 

Questo fatto rappresenta una delle 
grandi potenzialità pratiche della geo- 
metria frattale. Descrivendo oggetti op- 
portuni mediante un dialetto frattale li- 
neare si può ridurre notevolmente la 
quantità di dati necessari per trasmettere 
o immagazzinare un'immagine. Una di- 
mostrazione convincente di ciò è offerta 
da una foglia di felce. Una forma cosi 
complessa può essere descritta compiu- 
tamente da un algoritmo lineare basato 
su 24 numeri soltanto! Viceversa per 
rappresentare l'immagine della foglia 
punto per punto con la qualità di un'im- 
magine televisiva ci vorrebbero parec- 
chie centinaia di migliaia di valori nume- 
rici. In linea di principio qualsiasi imma- 
gine può essere codificata impiegando 
Tinsieme opportuno di funzioni lineari di 
trasformazione, 

Trasformando le immagini in eodici 
mediante algoritmi frattali si potrebbe 
ridurre drasticamente il tempo, la com- 
plessità e il costo della loro trasmissione 
via satellite. Questa possibilità solleva 
un problema cruciale e in gran parte an- 
cora non risolto. Come è possibile otte- 
nere la più piccola famiglia di funzioni di 
trasformazione [fi, ... f„] necessaria a 
definire un'immagine con una data pre- 
cisione? Questo problema è attualmente 
oggetto di molti studi. Tra le applicazio- 
ni più generali di questo procedimento 
si potrebbero menzionare i codici per la 
costruzione di immagini a mezzatinta o 
perfino a colori. 

T a codificazione delle immagini frattali 
L? è utile solo se esiste qualche metodo 
efficiente per estrarre l'immagine impri- 
gionata negli algoritmi frattali. La felce 
frattale ci fornisce un'opportunità molto 
interessante di capire come viene pro- 
dotta l'immagine. Le regole da fornire 



44 le scienze n, 266, ottobre 1990 



■11 »12 *ai a » b i ■* 

05 0.0 05 O.O 00 

5 0.5 5 

05 0.0 0.0 05 0,25 5 



FRACTAL 

FRACTAL 
FRACTAL FRACTAL 



FRACTAL 

FRACTALFRACTAL 

FRACTAL FRACTAL 

FRACTAL FRACTALFRACTALFRACTAL 



wnt «k «x 

ma. =•- 

mmki 

ma. ma. ma. va 

^kmomxWk mn.vORC*vi> 

«* ma mx ma. 

wem «tP» Ras» **** 



■n fl ti »ai *n D i 

a IT OD 

6*962 GCH5 -0 9255 0M9B 00 

-0 1&4 0I3S 6195» 4MK4B 00 

015S4 -4 23S QtKM 4tKV 






m 







Le immagini frattali generate dall'anello di retroazione della mac- 
china fotocopiatrice dipendono solo dal suo programma di copiatu- 
ra. La parola FRACTAL viene trasformata da un programma che 
riduce a metà la grandezza di un'immagine e la copia tre volte, una 
per ogni vertice dì un triangolo equilatero. L'immagine risultante 
è un triangolo di Sierpinski {a sinistra). Trasformazioni analoghe 



ma un poco più elaborate danno origine a un frattale f deiforme iai 
centrai o a un albero frattale (a destra). Qualsiasi immagine inizia- 
le introdotta nella fotocopiatrice fornirebbe lo stesso risultato. So- 
no sufficienti 1 pochi numeri che definiscono le regole dì copiatura 
(in alla) per specificare un'immagine che per essere descritta con 
metodi tradizionali richiederebbe centinaia di migliaia di numeri. 



le scienze n, 266, ottobre 1990 45 



Gii insiemi di Julia som» frontiere frattali che vengono generate 
dall'iterazione della trasformazione quadratica z 1 + t. La straor- 



dinaria varietà delle loro forme dipende solo dal valore del para* 
metro di controllo e. Se il punto e apparitene idi' insieme di Man- 




delbrof, l'insieme di Julia corrispondente è connesso {nella pagina 
a fremei. Gli insiemi di Julia definiti da punti non appartenenti 



air insieme di Mandelbrot non sono connessi [in questa pagina). 
L'insieme di Mandelbrol funge da indice degli insiemi di Julia, 



alla fotocopiatrice per ottenere questo 
frattale stabiliscono che ciascuna trasfor- 
mazione dia luogo a quattro riduzioni e 
spostamenti dell'immagine precedente. 
Una delle trasformazioni attua una ridu- 
zione molto rapida che schiaccia l'imma- 
gine, riducendoìa a un segmento vertica- 
le; e questo segmento costituisce lo 
«stelo». 

Se si comincia con un solo rettangolo, 
a ogni copiatura il numero dei rettangoli 
aumenta di un fattore quattro, e dopo/» 
trasformazioni è pari a 4"\ Dopo quattro 
iterazioni l'immagine iniziale (in questo 
caso un rettangolo) può essere ancora 
facilmente identificata. Un rettangolo 
abbastanza piccolo da rendere visibile la 
figura limite (la foglia di felce) si potreb- 
be ottenere dopo circa 50 iterazioni. Si 
dovrebbero quindi calcolare e disegnare 
4™ (più o meno 10*) rettangoli. Nessun 
calcolatore esistente sarebbe all'altezza 
dì un compito così impegnativo. 

Vista questa difficoltà, viene da do- 
mandarsi come si possano produrre que- 
ste figure limite. L'espediente che con- 
sente di ottenere queste immagini è un 
algoritmo che chiameremo il gioco del 
caos, proposto da Michael E. Barnsley e 
Stephen Demko del Georgia Insti tute of 
Technology. Il gioco ha inizio con la scel- 
ta dì un punto arbitrario del piano. Poi 
viene lanciato un dado a quattro facce, 
ciascuna delle quali corrisponde a una 
delle quattro trasformazioni che genera- 
no la figura della foglia di felce. Lancian- 
do il dado si individua a caso una delle 
trasformazioni f/ u /:, jfo, f*]* che viene 



poi applicata al punto scelto e lo trasfor- 
ma in un nuovo punto del piano. Un al- 
tro lancio individua un'altra trasforma- 
zione, che viene applicata al punto otte* 
nuto in precedenza e così vìa. I punti 
generati dai lanci successivi convergono 
rapidamente e riempiono densamente la 
figura limite. 11 problema di questa tec- 
nica è che per ottenere la figura limite 
potrebbe essere necessario un tempo 
Lunghissimo. 

Nell'esempio precedente tutte le f k 
(dove k rappresenta semplicemente una 
delle funzioni possibili) hanno la stessa 
probabilità di essere scelte mediante il 
lancio del dado. La figura limite può es* 
sere ottenuta molto più rapidamente se 
le probabilità P k con cui vengono scelte 
le funzioni f k nel gioco del caos non sono 
tutte uguali, cioè se alcune/* sono più 
probabili di altre. Il modo più rapido per 
ottenere la figura limite e quello di asse- 
gnare la probabilità più elevala alle fun- 
zioni che effettuano la minima riduzione 
dell'i mmagine. Con questa modificazio- 
ne ciascun punto della figura limite è in- 
dividuato con la stessa frequenza nel gio- 
co del caos, quindi tutte le parti della 
figura si riempiono con la stessa velocità. 

Modificando il gioco del caos si pos- 
sono descrivere le mezzetinte semplice- 
mente traducendo la frequenza con cui 
un punto della figura è individuato in un 
valore della scala dei grigi. Con una scel- 
ta opportuna delle P*, per ogni punto 
delta figura si può ottenere il valore de- 
siderato della scala dei grigi (cioè la fre- 
quenza desiderata con cui il punto viene 



individuato). Applicando questa tecnica 
ai colori primari additivi (rosso, verde e 
blu) si possono codificare immagini a co- 
lori. In questo modo futilità della com- 
pressione frattale dei dati viene ulterior- 
mente migliorata. 

Per ora non esiste alcun metodo sod- 
disfacente per generare in modo auto- 
matico codifiche frattali dì una data fi- 
gura o immagine. Per immagini autosi- 
mili come la felce di Barnsley esiste un 
procedimento semiautomatico che com- 
porta un'interazione tra calcolatore e os- 
servatore. Per prima cosa sì scompone 
l'immagine in parti simili all'immagine 
complessiva. Nel caso della foglia di fel- 
ce le due pinnule inferiori sono di forma 
simile al tutto, così come lo è la pane 
superiore della foglia che resta quando 
le pinnule inferiori sono soppresse. Con- 
sideriamo una fotocopiatrice a riduzioni 
multiple contenente trasformazioni che 
riducano l'immagine intera a queste par- 
ti. Ciò si può ottenere facilmente con un 
procedimento per tentativi ed errori ba- 
sato su un programma interattivo. 

L'idea di base di questo metodo com- 
porta che solo immagini rigorosamente 
autosimili possano essere codificate in 
forma frattale. Questa limitazione può 
essere superata grazie a una promettente 
estensione del metodo, che è attualmen- 
te allo studio, L'idea di fondo è quella di 
avere molte fotocopiatrici funzionanti si- 
multaneamente in parallelo e organizza- 
te in una rete gerarchica. Questa rete 
può controllare singoli caratteri autost- 
mili oppure mescolarne più d'uno; ciò 



consente, per esempio, di creare una fo- 
glia felciforme composta di triangoli di 
Sierpinski (si veda t illustrazione a pagi- 
na 44 in basso), 

Occupiamoci ora di un altro insieme 
di dialetti frattali, i dialetti non li- 
neari. Uno di essi, il dialetto quadratico, 
è stato oggetto di attenzione particolare, 
poiché produce una grande ricchezza di 
forme geometriche a partire da un algo- 
ritmo piuttosto semplice ed è stretta- 
mente collegato all'odierna teoria del 
caos. 

La teoria su cui si basa il dialetto qua- 
dratico fu descritta per la prima volta nel 
1918 dal matematico francese Gaston 
Julia, che si trovava allora in un ospedale 
militare, convalescente delle ferite ri- 
portale durante la prima guerra mondia- 
le. Tanto le sue ricerche quanto quelle 
contemporanee del suo accanito rivale 
Pierre Fatou furono presto quasi dimen- 
ticate, ma di recente il lavoro di Mandel- 
brot ha riacceso Tinte resse per le loro 
teorie. L'impresa intellettuale di Julia e 
Fatou è particolarmente notevole per- 
ché, non esistendo a quel tempo i calco- 
latori, essi potevano contare sol amen- 
te sulle proprie capacità intrinseche di 
visualizzazione. 

Julia e Fatou si occupavano di numeri 
complessi, ciascuno costituito da un nu- 
mero reale e da un multiplo di *\ l'unità 
immaginaria definita come la radice qua- 
drata di - 1 . 1 numeri complessi vengono 
di solito rappresentati su un piano con 
due assi perpendicolari, uno dei quali 



corrisponde ai numeri reali e l'altro ai 
numeri immaginari. I due studiosi cerca- 
vano di capire che cosa accade a una suc- 
cessione di punti Zk del piano dei numeri 
complessi generati dalla trasformazione 
g(z) = z 2 + e. II punto Zk t i si ottiene 
applicando la trasformazione al punto 
precedente della successione z*. Il nu- 
mero complesso e è un parametro di con- 
trollo che può essere scelto ad arbitrio. 
Questo processo iterativo, in apparenza 
semplice, costituisce la base di una fami- 
glia sbalorditiva di forme. 

Quando si applica la trasformazione a 
un punto iniziale zo, la successione risul- 
tante può comportarsi in due modi di- 
versi: può vagare senza limitazioni, al- 
lontanandosi verso l'infinito, oppure re- 
slare confinata in una certa regione del 
piano dei numeri complessi. I punti libe- 
ri costituiscono il cosiddetto insieme di 
fuga; quelli che restano confinati forma- 
no il cosiddetto insieme prigioniero. Se 
il punto di partenza zo appartiene all'in- 
sieme prigioniero, esso genera una suc- 
cessione che resta in una «prigione» nu- 
merica indipendentemente da quante 
generazioni della successione siano cal- 
colate. La forma della prigione dipende 
dal valore di e scelto. Per un punto zq 
esterno all'insieme prigioniero, la suc- 
cessione Zk si allontana dal centro del 
piano e va verso rinfittito. L'insieme pri- 
gioniero e riusi e me di fuga sono separati 
da una frontiera infinitamente stretta, il 
cosiddetto insieme di Julia (sì veda Vii- 
lustrazione in alio in queste due pagine). 
Per quanto appaia sorprendente, l'in- 



sieme di Julia si può ottenere anche 
usando la fotocopiatrice a riduzioni mul- 
tiple, equipaggiandola con lenti speciali 
che invertano l'effetto di g(z). L'inver- 
sione di g(z) = z 2 + e si compie con 
due funzioni di trasformazione, fdu) = 
« + {a -c) i: e /:(«}= - (u-c) 12 . 
( In queste funzioni ce il solito parametro 
di controllo e li è il valore iniziale scelto.) 
Queste due funzioni possono essere con- 
siderate le «riduzioni» effettuate dalla 
fotocopiatrice. Facendo funzionare la 
macchina ripetutamente, punti scelti a 
caso tendono all'insieme di Julia, 

La presenza della radice quadrata nel- 
le equazioni significa che la fotocopiatri- 
ce non applica più un fattore di riduzione 
uniforme. Inoltre, poiché la trasforma- 
zione è non lineare, i segmenti di retta 
vengono trasformati in linee curve. Da 
un'immagine iniziale emergono due im- 
magini più piccole, poi quattro, poi otto, 
finché pian piano si forma la figura limile 
{si veda V illustrazione in basso in queste 
due pagine). Come nel caso dei frattali 
lineari , la figura limite non dipende dalla 
particolare immagine dì partenza, ma è 
completamente determinata da /] e fi, 
cioè dalia scelta del parametro e. 

Si presenta ora uno dei problemi più 
difficili e affascinanti della geometria 
frattale. Tornando alla metafora della 
lingua, il problema può essere tradotto 
in questa domanda: quali sono le regole 
grammaticali dei dialetti quadratici? In 
termini matematici il problema è: l'infi- 
nita varietà degli insiemi di Julia ammet- 
te un principio ordinatore soggiacente? 




FRHCTHL 




Anche i frattali non lineari tome gli insiemi di Julia possono esse- 
re generati tramite una fotocopiatrice a riduzioni multiple opportu- 



namente programmata. La macchina ora non effettua più semplici 
operazioni di riduzione, ma curva e distorce l'immagine di parten- 




za oltre a rimpicciolirla. La fotocopiatrice compie per via grafica 
un'inversione delle equazioni quadratiche che definiscono un insie- 



me di Julia effettuando le trasformazioni +(: - c) ,/2 e-(z - cì 1 ' 2 . 
La figura lìmite generata dalla fotocopiatrice è un insieme di Julia. 



46 LE SCIENZE n. 266, ottobre 1990 



le scienze n. 266, ottobre 1990 47 



Nel cercare la risposta si è giunti a una 
delle più belle scoperte della matematica 
sperimentale. La soluzione sia nel fatto, 
nolo a Julia e a Fatou, che per ogni pa- 
rametro di controllo e Tìmmagine fratta- 
le risultante è di due tipi possibili: l'in- 
sieme di Julia può essere un unico insie- 
me connesso, oppure essere costituito 
da un numero infinito di punti non con- 
nessi, come polvere. 

Supponiamo di tracciare un punto per 
ogni parametro di controllo e del piano 
complesso appartenente a un insieme di 
Julia connesso e di lasciare uno spazio 
vuoto per ogni e appartenente a un in- 
sieme di Julia non connesso. [1 risultato 
è l'insieme, ormai celebre, di Mandel- 
brot, un frattale dalla ricchezza davvero 
straordinaria. 

Naturalmente per decidere se un pun- 
to e appartiene all'insieme di Mandel- 
brot, è necessario sapere se un dato in- 
sieme di Julia è connesso. Uno dei gran- 
di successi di Julia e Fatou fu la scoperta 
che questo difficile problema può essere 
risolto con un semplice calcolo. Si con- 
sideri la successione di valori z* generata 
dalla funzione g(z) - z 2 + e quando il 
punto iniziale zo coincide con lo zero. In 
tal modo l'attenzione si concentra sul 
fattore cruciale, il parametro di control- 
lo e. La successione risultante è 0, e, 

e 1 + e, (r 2 + e) 1 + e Se questa 

successione non diverge verso l'infinito 
allora il corrispondente insieme di Julia 
è connesso e il punto e appartiene all'in- 
sieme di Mandelbrot, 

Ogni porzione dell'insieme di Man- 
delbrot caratterizza una famiglia di insie- 
mi di Julia correlati. Per esempio il corpo 
principale, a cardioide, dell'insieme dì 
Mandelbrot caratterizza gli insiemi di 
Julia che somigliano a cerchi raggrinziti. 
Benché T insieme di Mandelbrot non sia 
esattamente autosimile come il triangolo 



di Sierpinski e la foglia dì felce frattale, 
esso possiede una proprietà analoga: se 
si ingrandisce la sua frontiera, l'insieme 
di Mandelbrot rivela un numero infinito 
di minuscole copie di se stesso. La ric- 
chezza di forme e di strutture contenute 
nell'insieme di M aride Ihrot può essere 
apprezzata solo quando lo si esamini con 
grande minuzia. 

La proprietà forse più affascinante 
dell'insieme di Mandelbrot è che esso 
può essere considerato un «deposito» di 
immagini di efficienza infinita: oltre a 
suddividere gli insiemi di Julia in connes- 
si e non connessi, l'insieme di Mandel- 
brot funge anche da indice diretto e gra- 
fico di un numero infinito di insiemi di 
Julia. Ingrandendo l'insieme dì Mandel- 
brot intorno a un punto € situato sulla 
sua frontiera, appaiono forme che sono 
anche gli elementi costitutivi dell'insie- 
me dì Julia corrispondente al punto e. 
Questa scoperta, tuttavia, non è stata 
ancora rivestita di tutto il necessario ri- 
gore matematico. Tan Lei, un giovane 
ricercatore di talento che lavora all'Uni- 
versità di Lione, ha dimostrato che l'in- 
sieme di Mandelbrot si comporta in que- 
sto modo per la maggior parte dei valori 
del parametro e situati esattamente sulla 
frontiera dell'insieme. 

Le proprietà dell'insieme di Mandel- 
brot sono state e sono tuttora un gran- 
de cimento per la ricerca matematica. 
Enormi progressi sono stati compiuti 
grazie alla fusione di teoria matematica 
ed esperimenti di eidomatìca (ossia di 
grafica al calcolatore) , in particolare nei 
fondamentali lavori di Adrien Douady 
dell'École Normale Supérieure di Pari- 
gi e di John H. Hubbard della Cornell 
University. 

Il lavoro di gran lunga più riuscito 
in questo campo è quello sul cosiddetto 
potenziale elettrostatico dell'insieme di 



Mandelbrot. Si immagini che l'insieme 
sia dotato di carica elettrica. Si potrebbe 
misurare il potenziale collocando una ca- 
rica puntiforme all'esterno dell'insieme 
e misurando la forza elettrostatica agen- 
te su quel punto. Risulta che il calcolo 
del potenziale è strettamente legato alla 
serie (1, e, e 2 + e, (e 2 + e) 2 + causata 
per stabilire se un punto e appartiene o 
no all'insieme di Mandelbrot, 

Si è visto che generare una rappresen- 
tazione tridimensionale del potenziale è 
laborioso, specie nelle animazioni usate 
per studiare l'insieme di Mandelbrot. 
Esaminando meglio le proprietà eido- 
matiche del potenziale, di recente sì è 
potuto ridurre di un ordine di grandezza 
il costo in tempo macchina. Di conse- 
guenza molti ricercatori, noi compresi, 
studiano sempre più l'insieme di Man- 
delbrot mediante video animati dal cal- 
colatore, Ricerche analoghe sono in cor- 
so anche su rappresentazioni tridimen- 
sionali dei potenziale di altri frattali. 

'T'utti i frattali finora esaminati posso- 
A no essere considerati deterministici. 
Benché i processi aleatori (per esempio 
il lancio di un dado) possano aiutarci a 
produrre immagini frattali, essi non han- 
no alcun effetto sulla forma frattale fina- 
le. La situazione è affatto diversa per 
un'altra classe di frattali, i cosiddetti 
trattali aleatori. 

Per generare un frattale di questo tipo 
si può cominciare con un triangolo gia- 
cente su un piano arbitrario. 1 punti me- 
di di ciascun lato del triangolo vengono 
collegati tra loro e il triangolo viene così 
diviso in quattro triangoli più piccoli. 
Ciascun punto medio viene poi alzato o 
abbassato dì una quantità scelta a caso. 
Lo stesso procedimento viene applicato 
a ciascuno dei triangoli più pìccoli e il 
processo viene ripetuto all'infinito. Al- 




Si possono creare paesaggi frattali con il metodo dello spostamento 
dei punti medi, I punti medi dei lati di un triangolo {a) vengono 
uniti da segmenti e spostati in su o in giù, fuori dal piano dell'im- 
magine (b\. Si ottengono così quattro piccoli triangoli su cui sì ri* 
pete il procedimento. Una legge di distribuzione stabilisce I 1 entità 
dello spostamento e quindi determina la scabrosità del terreno frat- 
tale. Un programma ei domati co genera poi ombreggiature appro- 
priate <c), dando vita a risultati straordinariamente realìstici \d). 




V insieme di Mandelbrot rispecchia l'ordine soggiacente alla infi- 
nita varietà degli insiemi di Julia. Tutti i suoi punti rappresentano 
vai ori del parametro e corrispondenti a insiemi di Julia connessi. 
Se il punto e non appartiene all'insieme di Mandelbrot l'insieme di 
Julia a esso associato non è connesso. L'insieme di Mandelbrot con- 



tiene una ricchezza di dettagli inimmaginabile. Tre ingrandimen- 
ti successivi dell'insieme rivelano strutture simili che si ripetono, 
fra cui anche copie in miniatura dell'insieme stesso, oltre a forme 
nuove e differenti. Se L'intero insieme fosse raffigurato alla scala 
dell'immagine di destra, sarebbe grande come 100 campi da calcio. 



l'aumentare del numero delle iterazioni, 
comincia a formarsi una superficie sem- 
pre più ricca di particolari. 

In questo «metodo dello spostamento 
dei punti medi», l'entità aleatoria dello 
spostamento dei punti medi è retta da 
una legge di distribuzione che può essere 
modificata fino a ottenere una buona ap- 
prossimazione della superficie di cui si 
vuol costruire il modello. Per un model- 
lo di una superficie relativamente liscia, 
le trasformazioni usate dovrebbero pre- 
vedere una regola per cui gli spostamenti 
dei punti medi diventino piccolissimi già 
dopo poche iterazioni. Una regola del 
genere aggiunge solo piccole prominen 
ze sullo sviluppo complessivo- Per rap 
presentare invece una superficie acci 
dentata, per esempio la topografia dì 
una catena montuosa, è meglio far dimi 
nuire di poco l'entità degli spostamenti 
a ogni iterazione. 

Questo metodo per costruire superfici 
ha molte applicazioni. È stato impiegato 
per ottenere modelli dell^rosione del 
suolo e per analizzare le registrazioni si- 
smiche al fine di capire i cambiamenti 
nelle zone di faglia. Questo concetto è 
stato usato da Richard F. Voss, collega 
di Mandelbrot al Thomas J. Watson Re- 
search Center, per generare immagini 
molto realistiche di pianeti, satelliti, nu- 
bi e montagne (si veda l* illustrazione nel- 
la pagina a fronte). 

A prescindere dalla loro origine e dal 
metodo di eostruzione, tutti i frattali 
presentano una caratteristica importan- 
te: se ne può misurare la scabrosità, la 
complessità o Taccartocciamento me- 
diante un numero caratteristico, la di- 
mensione frattale. Le varie definizioni 
concettuali della dimensione frattale ri- 
salgono più o meno a un lavoro del 1919 
del matematico Felix Hausdorff dell'U- 
niversità di Bonn. 

La dimensione frattale può essere de- 
terminata mediante un procedimento di 



conteggio proposto da Mandelbrot, Si 
consideri una forma complessa a cui è 
sovrapposto un reticolo di quadrati trac- 
ciati su carta millimetrata. Alcuni qua- 
drati conterranno parte della forma, altri 
saranno vuoti. Il numero N di quadrati 
non vuoti dipende dalla forma data e dal 
lato £ dei quadrati del reticolo. Si postu- 
la che N sia proporzionale a 1/£ D (più è 
fitto il reticolo più sono i quadrati non 
vuoti). L'esponente D è la dimensione. 
Per una figura piana, per esempio un 
cerchio, quando il lato dei quadrati del 
reticolo viene ridotto a metà il numero 
dei quadrati non vuoti dovrebbe essere 
moltiplicato per quattro (due al quadra- 
to)* perché la figura ha dimensione due. 
Per un frattale il numero dei quadrati 
non vuoti verrebbe moltiplicato per un 
valore frazionario un po T più grande o un 
po' più piccolo. 

Questo procedimento non è limitato 
alle forme o agli oggetti matematici con- 
tenuti in un piano: si può anche calcolare 
la dimensione frattale di cose reati come 
fiumi, nubi, litorali, alberi, arterie o villi 
intestinali. Le arterie umane, per esem- 
pio, hanno una dimensione frattale di 
circa 2,7. 

Oltre a essere utile per descrivere la 
complessità degli oggetti naturali, 
la geometria frattale offre un'interessan- 
te possibilità per rinnovare l'insegna- 
mento della matematica. 1 concetti della 
geometria frattale sono evidenti e intui- 
tivi e le forme che s'incontrano possie- 
dono una grande attrattiva estetica e 
un'ampia gamma di applicazioni. La 
geometria frattale può quindi contribui- 
re a sfatare l'idea che la matematica sia 
arida e inaccessibile e può motivare gli 
studenti ad apprendere questa sconcer- 
tante ed eccitante disciplina. 

Di fronte al linguaggio dei frattali, così 
nuovo e in evoluzione tanto rapida, gli 
stessi scienziati e matematici provano 



una sorta di stupore infantile. Scrive 
Mandelbrot: 

«Gli scienziati.., saranno sorpresi e 
compiaciuti nello scoprire che non po- 
che forme che prima dovevano chiamare 
granulose, tentacolari, intermedie, fo- 
runcolose, butterate, ramificate, aigali, 
strane, intricate, tortuose* serpeggianti, 
esili, grinzose e così via potranno d*ora 
in poi essere studiate in modo rigorosa- 
mente e vigorosamente quantitativo. 

«I matematici,,, saranno sorpresi e 
compiaciuti nello scoprire che gli insie- 
mi [frattali) considerati fi nota ecceziona- 
li.., costituiscono in un certo senso la 
regola, che certe costruzioni ritenute pa- 
tologiche discendono in modo naturale 
da problemi molto concreti e che lo stu- 
dio della natura può contribuire a risol- 
vere problemi antichi e a trovarne tanti 
di nuovi.» 



BIBLIOGRAFIA 

mandelbrot b. B., Vie Fractal Geo- 
metry of Nature, W, H. Freeman & Co,, 
1983, 

PEfTGEN R o, e riotter P,, La bellez- 
za dei frattali, Bollati Boringhierù Tori- 
no, 1987. 

barnsley M., Fractals Everywhere, 
Academic Press, Ine, 1988, 

PEITGEN R o. e SAURE D,, The Scien- 
ce of Fractal lmages f Springer-Verlag, 
198S. 

PEITGEN HE1NZ-OTTO, JURGENS HART- 

mut e SAUPE DiETMAR, Fractals far the 
Classroom, Sprìnger-Verlag, 1989, 

PEITGEN H. O, JURGENS PL. SAUPE D, e 

ZAHLTEN c, Fractals: An Animateti Di* 
scussion, con Edward Lorenz e Benoit 
B, Mandelbrot (video), W, H, Freeman 
& Co., 1990, 



48 le scienze n. 266, ottobre 1990 



le scienze n. 266, ottobre 1990 49 



La singolare termodinamica 
dei microaggregati 

Pìccoli gruppi costituiti da alcune decine di atomi o molecole, a causa dei 
loro punti di fusione e di congelamento che non coincidono, presentano 
proprietà sorprendenti come la coesistenza delle fasi liquida e solida 

di R. Stephen Berry 



Quasi tutti i solidi hanno un punto 
di fusione e quasi tutti i liquidi 
hanno un punto di congela- 
mento. In realtà questi due punti sono 
esattamente identici, ma visti da due 
prospettive diverse: il ghiaccio fonde a 
zero gradi Celsius * la temperatura più 
elevata alla quale può esistere come so- 
lido stabile * mentre l'acqua gela a zero 
gradi Celsius, ossia la temperatura più 
bassa alla quale può esistere come liqui- 
do stabile. Sembra che non vi sia nulla 
di più semplice. 

Tuttavia, piccoli aggregati di atomi o 
molecole consentono di osservare il pun- 
to di fusione e quello di congelamento 
sotto una nuova luce, e soprattutto mo- 
strano come non siano così semplici da 
definire. Questi microaggregati (compo- 
sti da un numero di atomi o molecole che 
può andare dai quattro-cinque ai ÌQQ- 
-200) possono coesistere allo stato di so- 
lido e di liquido in un intervallo finito 
(ossia non nullo) di temperature e hanno 
punti di fusione e di congelamento note- 
volmente diversi. 

Sono state le peculiari caratteristiche 
dei microaggregati a permettere a molti 
ricercatori, me compreso, di studiare i 
segreti dei loro punti di fusione e di con- 
gelamento, Questi aggregati sono più 
grandi di singole molecole, ma più pic- 
coli di una massa ordinaria di materia 
(che è composta da un numero di atomi 
così elevato da poter essere considerato 
infinito) e quindi presentano le proprietà 
di entrambe. Grazie alla loro dimensio- 
ne intermedia, essi possono essere stu- 
diati quasi con la stessa minuziosa preci- 
sione degli atomi o delle molecole , ma 
nello stesso tempo mostrano alcune del- 
le proprietà globali della materia. 

In futuro gli aggregati atomici potran- 
no anche offrire fa possibilità di produrre 
nuovi tipi di materiali e di dar luogo a 
nuove reazioni chimiche. Dato che gli 
aggregati possono esistere in molte for- 



me stabili differenti - per esempio come 
icosaedri da 55 atomi o come «palloni da 
calcio» da 60 atomi - potrebbero essere 
fatti condensare in solidi diversi da tutti 
quelli finora conosciuti. Gli studiosi spe- 
rano che sia possibile progettare questi 
materiali in modo che abbiano le pro- 
prietà microelettroniche, meccaniche o 
catalitiche desiderate. 

Dall'epoca di John Dalton (inizio de! 
XIX secolo), quando la teoria ato- 
mica cominciò a essere accettata, lo stu- 
dio del comportamento della materia si 
e diviso in due branche. I «riduzionisti» 
si sono concentrati sulle proprietà dei 
singoli atomi e molecole» e negli anni 
trenta del nostro secolo questo filone di 
ricerca ha dato vita alla fisica nucleare e 
poi alla fisica delle particelle. Altri ricer- 
catori si sono occupali delle proprietà 
globali della materia, soprattutto dei 
grandi agglomerati di atomi o molecole, 
ì microaggregati permettono di collega- 
re queste due aree di ricerca, ma per 
poterli studiare si dovette attendere lo 
sviluppo di adeguate metodologie speri- 
mentali e teoriche, che divennero dispo- 
nibili solo all'inizio degli anni settanta. 

Al contrario delle molecole, che sono 
caratterizzate da una composizione e, 
nella maggior parte dei casi, da una 
struttura ben determinata, i microaggre- 
gati non sono definiti in maniera altret- 
tanto precisa. Un micro aggregato di ato- 
mi di silicio, per esempio, può contenere 
tre, o IO o 100 atòmi. Oltre a ciò. la 
maggior parte dì questi aggregati può 
presentare un gran numero di strutture, 
tutte stabili anche se in misura diversa. 

Gli aggregati differiscono dalla mate- 
ria ordinaria non solo per il numero di 
atomi o molecole che li costituiscono, 
ma anche per il numero di atomi o mo- 
lecole che si trovano alla superficie. In 
un campione di materia ordinaria solo 
una piccola percentuale degli atomi pre- 



senti si trova ali a superficie, mentre negli 
aggregati questa percentuale può essere 
molto più grande. In un aggregato di 55 
atomi di argo, per esempio, almeno 42 
atomi sono in superficie. 

I principi teorici in base ai quali si può 
spiegare la differenza nei punti di fusio- 
ne e di congelamento degli aggregati si 
fondano su diversi concetti, in particola- 
re su quello di «buca di potenziale» che 
può essere assimilato all'esperienza quo- 
tidiana legata alla forza di gravità. Si 
consideri una regione fatta di colline e 
valli: il fondo di una valle - la buca - è, a 
causa dell'attrazione di gravità, il punto 
di minima energia potenziale per qua- 
lunque oggetto dotato di massa. Una 
palla posta sopra una collina rotola verso 
il basso, mentre una che si trova in fondo 
a una valle rimane ferma, Una forza at- 
trae o spinge un oggetto nella direzione 
in cui si ha una riduzione della sua ener- 
gia potenziale. 

Si può immaginare che una molecola 
o un aggregato che si trovi esattamente 
air equilibrio giaccia sul fondo di una bu- 
ca di potenziale, ma in questo caso sono 
le forze elettriche, non quella di gravità, 
ad agire per una riduzione dell'energia 
potenziale. Quest'azione viene esercita- 
ta dalla forza attrattiva tra coppie di elet- 
troni e di protoni degli atomi costituenti 
e dalla forza repulsiva all'interno delle 
coppie di protoni e di elettroni. Sono i 
contributi di queste due forze a determi- 
nare il diametro di un atomo, ossia, più 
esattamente, la distanza dal centro alla 
quale si può avere una collisione con un 
altro atomo. Gli atomi infatti non sono 
sfere dure come palle da biliardo, ma 
sono in una certa misura comprimibili e 
deformabili. 

La buca di potenziale di due atomi che 
interagiscono per formare un legame ha 
un valore costante quando gli atomi so- 
no lontani; tale valore, però, diminuisce 
quando essi sì avvicinano, a causa del- 



l'attrazione elettrone-protone, per poi 
aumentare bruscamente in corrispon- 
denza della collisione fra gli atomi. Ben- 
ché sta relativamente sempl ice estendere 
il concetto di buca di potenziale a un'a- 
strazione che rappresenti le mutue inte- 
razioni fra tre o più atomi, è difficile rap- 
presentare una buca di questo tipo per- 
ché ha un numero troppo grande di di- 
mensioni. In altri termini, la buca dipen- 
de da troppe variabili indipendenti per 
poter essere raffigurata su carta o anche 
rappresentata con un modello tridimen- 
sionale. Tuttavia la terminologia e le im- 
magini associate al concetto di buca di 
potenziale rimangono utili per descrive- 
re il comportamento di molecole e ag- 
gregati formati da diversi atomi. 

Onora gli aggregati sono stati descritti 
-*■ in termini di meccanica classica, ma 
un'interpretazione migliore della natura 
è fornita dalla meccanica quantistica. Il 
cambiamento più importante introdotto 
dalla descrizione quantistica è che le 
energie permesse di un aggregato sono 
quantizzate. Da un punto di vista classi- 
co, naturalmente, un aggregato può as- 
sumere qualsiasi energia nella buca di 
potenziale, mentre dal punto di vista 
quantistico l'energia dell'aggregato è li- 
mitata a una serie discreta di livelli, che 
formano una sorta di irregolare «scalet- 
ta» nella buca di potenziale. 

Il fatto che i «pioli» - o livelli quantiz- 
zati di energia - di questa scaletta non 
siano distanziati in maniera uniforme è 
significativo nel determinare i differenti 
punti di fusione e di congelamento dei 
microaggregati: una buca di potenziale 
profonda e ripida ha livelli ampiamente 
spaziati, mentre una buca di potenziale 
larga li ha molto ravvicinati. Una buca 
può essere profonda e ripida nel centro 
e avere margini ampi e poco profondi; 
in questo caso i livelli di bassa energia 
sono molto distanziati e quelli di alta 
energia sono ravvicinati. 

Gli aggregati in fase solida, che vibra- 
no con difficoltà e possono ruotare in 
maniera limitata, come i modelli fatti di 
bastoncini e sferette, sono associati a bu- 
che profonde. Le buche poco pronuncia- 
te, più simili a semplici ondulazioni, so- 
no correlate agli aggregati in fase liqui- 
da» che non hanno una struttura geome- 
trica definita e quindi si riorganizzano 
facilmente. Gli aggregati in fase solida 
hanno livelli di energia relativamente di- 
stanziati, mentre quelli in fase liquida li 



Un aggregato di 19 atomi di argo può esi- 
stere in fase solida [in alto} o in fase liquida 
(mi hasso). Un aggregato in fase solida può 
avere solo vibrazioni limitate mentre uno in 
fase liquida non ha una struttura geometri- 
ca definita e può quindi riorganizzarsi fa- 
cilmente. Le immagini al calcolatore sono 
state realizzate da Thomas L* Beck, che og- 
gi lavora presso l'Università di Cincinnati. 








52 LE SCIENZE n. 266, ottobre 1990 




Il concetto di buca di potenziale è utile per descrìvere il comportamento degli aggregati. 
I na molecola o un aggregato in condizioni dì equilibrio può essere immaginata come sul 
Tondo di una buca di potenziale» proprio come una palla che, in fondo a una valle, rimane 
ferma. Da un punlo di vista classico un aggregato può assumere qualsiasi energia della 
buca di potenziale, mentre da un punto di vista quantistico i valori possìbili dell'energia 
sono limitati a un gruppo di livelli discreti [piani orizzontati} che formano i *pìoli» di una 
sorta di scaletta irregolare nella buca. I na buca di potenziale profonda e ripida ha livelli 
di energia molto distanziati ed è associata ad aggregati in fase solida, mentre una buca 
ampia e poco profonda, con livelli ravvicinati, è correlata ad aggregati in fase liquida. 



hanno molto ravvicinati. Riprendendo 
l'analogia con un paesaggio collinoso, si 
può dire che, nella situazione in cui sono 
più probabili differenze fra la tempera- 
tura di fusione e quella di congelamento, 
le valli strette e profonde della buca di 
potenziale sono separate dalle ampie e 
ondulate pianure da passi moderata* 
mente alti oppure inaccessibili. 

L'ultimo concetto necessario per spie- 
gare la differenza nei punti di fusione e 
dì congelamento nei mi ero aggrega ti è 
quello di energia libera: essa viene defi- 
nita come la differenza fra l'energìa in* 
terna del sistema - in questo caso un in- 
sieme di molecole - e il prodotto della 
sua temperatura per la sua entropìa (che 
è una misura del disordine). L'aggregato 
si riorganizza in modo tale da ridurre la 
sua energia libera, sia rendendo mini- 
ma l'energia interna, sia massimizzando 
l'entropia, sia con una combinazione di 
entrambi i processi: la materia tende ver- 
so uno stato di bassa energia interna e di 
entropia elevata e l'energìa libera è sem- 
plicemente un indicatore del «punteg- 
gio» nella gara fra l'energia interna e 
l'entropia. 

Si immagini ora un insieme di mi- 
croaggregati mantenuti a una tempera- 
tura sufficientemente bassa da far si che 
tutti si trovino in fase solida. In queste 
condizioni l'entropia di ciascun aggrega- 
to è bassa, perché i livelli di energia sono 
abbastanza distanziati e solo alcuni di es- 
si sono occupati. L'energia libera degli 
aggregati assume un valore minimo per- 
ché anche l'energia intema è bassa. 

Supponiamo ora di aumentare un po- 
co la temperatura. Ciascun aggregato ha 



a disposizione livelli dì energia più ele- 
vati e quindi un modo per aumentare la 
propria entropia e diminuire potenzial- 
mente la propria energia lìbera. Ma se 
l'aumento di temperatura è modesto, 
l'entropia acquisita nel portarsi ai livelli 
di energia più elevati viene controbilan- 
ciata dal risparmio di energia interna che 
si ha nel rimanere a livelli bassi . Pertanto 
gli aggregati restano in fase solida e solo 
occasionalmente si avventurano nei li- 
velli di più atta energia. 

Se si continua a innalzare la tempera- 
tura, ciascun aggregato può accedere 
con facilità via via maggiore ai livelli di 
alta energia della fase liquida, livelli che 
sono sempre più ravvicinati sulla scala di 
energia crescente. Pertanto il disordine 
associato al singolo aggregato aumenta 
enormemente, dato che esso può muo- 
versi con libertà pressoché totale fra i 
diversi livelli , Questa volta il grande au- 
mento di entropia è più che sufficiente a 
controbilanciare l'energìa interna neces- 
saria per raggiungere i livelli della fase 
liquida, e quindi l'energia libera assume 
un valore minimo per gli aggregati che si 
trovano in questa fase. 

In queste condizioni si ha un risultato 
sorprendente. Il minimo di energia libe- 
ra corrispondente agli aggregati in fase 
solida si conserva (anche se di solito di- 
venta meno profondo) e quindi, dal mo- 
mento che vi sono due minimi dì energia 
libera, possono coesistere aggregati in 
fase sia solida sta liquida. 

Se si ha un ulteriore aumento di tem- 
peratura, l'equilibrio energia interna- 
-entropia si sposta a favore degli aggre- 



gati in fase liquida e il minimo di energia 
libera pei gli aggregati in fase solida di- 
viene sempre meno pronunciato. Infine, 
quando la temperatura ha raggiunto un 
valore sufficientemente elevato, questo 
minimo scompare, lasciando solo il mi- 
nimo corrispondente alla fase liquida, e 
l'equilibrio energia intema-entropia si 
sposta completamente a favore dì que- 
st'ultima fase. 

Ora è possibile solo l'esistenza di ag- 
gregati in fase liquida. Dalla comparsa 
del liquido stabile alla scomparsa del so- 
lido stabile vie quindi un certo intervallo 
di temperature nel quale possono coesi- 
stere aggregati in entrambe le fasi. Nel- 
l'intervallo di coesistenza la frazione di 
aggregati che si trovano in una della due 
fasi dipende dalla differenza dell'energia 
libera di queste fasi, e l'energia libera 
varia con la temperatura. In particolare, 
all'aumentare della temperatura la fra- 
zione di aggregati presenti ìn fase liquida 
segue una curva che ha la forma di una 
S appiattita. 

Pertanto la densità dei livelli dì ener- 
gia e le correlazioni fra energia interna 
ed entropia ci hanno portato a conclude- 
re che un aggregato può avere un punto 
di congelamento definito, al dì sotto del 
quale è stabile solo la fase solida, e un 
punto di fusione altrettanto ben deter- 
minato, al dì sopra del quale è stabile 
solo la fase liquida. Fra ì due punti vi è 
un intervallo finito di temperature nel 
quale entrambe le fasi sono stabili. In 
altri termini, il punto di fusione e quello 
di congelamento non coincidono! Ab- 
biamo introdotto una separazione fra di 
essi: non è assolutamente necessario che 
siano alla medesima temperatura. 

Il fatto che il punto di fusione e quello 
di congelamento siano distinti appare 
paradossale perché l'esperienza quoti- 
diana mostra che i due valori sono ugua- 
li. Nel caso dei microaggregati, tuttavia, 
questa apparente contraddizione viene 
superata grazie alle speciali proprietà as- 
sociate alle loro dimensioni intermedie. 
Il comportamento di un sistema piccolo 
- con 10, 100 o anche 10 000 atomi o 
molecole - è molto diverso da quello di 
un sistema grande, che contiene migliaia 
di miliardi di atomi o molecole. Per un 
piccolo aggregato, composto da 10-20 
atomi, si prevede che La coesistenza delle 
fasi solida e liquida sia rilevabile in un 
intervallo di diversi gradi, mentre per un 
«superaggregato» di milioni di atomi si 
ritiene che l'intervallo di temperature 
nel quale sia possibile osservare contem- 
poraneamente le due fasi sia inferiore a 
un millesimo di grado. Nel caso della 
materia ordinaria i limiti di questo inter- 
vallo di coesistenza sono così vicini da 
risultare praticamente indistinguibili, e 
questo giustifica l'uso intercambiabile 
che si fa dei termini «punto di fusione»* 
e «punto di congelamento». 

Sia gli esperimenti dì laboratorio, sia le 
simulazioni al calcolatore forniscono 
dati a sostegno di questa teoria relativa 



alle differenze tra il punto di fusione e 
quello di congelamento dei microaggre- 
gati. Questi vengono sintetizzati in labo- 
ratorio, o producendo un gas degli atomi 
o delle molecole componenti e lasciando 
loro il tempo dì aggregarsi* o «estraen- 
do» semplicemente gli aggregati da un 
solido. Nei due casi, gli aggregati posso- 
no essere studiati come gas o come spe- 
cie intrappolate in una matrice inerte. 

Per distinguere gli aggregati in fase so- 
lida da quelli in fase liquida occorre es- 
sere ìn grado di «vedere» se essi hanno 
il comportamento caratteristico di uno 
di questi stati della materia. I solidi sono 
rigidi e di forma definita, tanto che. per 
esempio, è possibile spingerli. I liquidi, 
d'altra parte, sono «cedevoli» e non han- 
no una forma propria: non è possibile 
appoggiare .i l dito sul! 'acqua , ma solo ì m- 
mergerlo nell'acqua, dato che essa cede 
alla minima pressione. (Naturalmente, 
anche un liquido può comportarsi come 
un solido nei confronti di una forza eser- 
citata all'improvviso, come sa benissimo 
chiunque abbia malauguratamente pre- 
so una spanciata tuffandosi in acqua.) 

Un aggregato in fase solida ha una for- 
ma definita nel senso che è quasi del tut- 
to vincolato a vibrare intorno a una sin- 
gola configurazione geometrica {ossia 
una valle specifica), L'aggregato può vi- 
brare milioni o anche migliaia di miliardi 
di volte intorno a una configurazione pri- 
ma di passare a un'altra configurazione, 
ammesso che abbia l'energia sufficiente 
pei tarlo. (Normalmente un aggregato 
vibra circa 10 (XX) miliardi di volte al se- 
condo.) Viceversa un aggregato in fase 
liquida passa facilmente da una configu- 
razione a un'altra (ossia da una valle a 
un'altra). L'aggregato compie un picco- 
lo numero di vibrazioni, forse qualche 
centinaio al più, prima dì passare alla 
co n fi gu razi o n e su cce ssi v a . 

"perché sia possibile osservare le fasi 
*- solida e liqu ida, gli aggregati devono 
trascorrere un tempo sufficiente in cia- 
scuna di esse. Gli aggregati in fase liqui- 
da devono rimanervi abbastanza a lungo 
da mostrare le proprietà caratteristiche 
di un liquido, in particolare il passaggio 
attraverso numerose configurazioni geo- 
metriche mediante la riorganizzazione 
rapida degli atomi. Gli aggregati in fase 
solida devono presentare la rigidità e la 
scarsa deformabilità che sono caratteri- 
stiche di questa fase. 

Attualmente i più accurati dati di la- 
boratorio sembrano indicare che è effet- 
tivamente possibile distìnguere i mi- 
croaggregafi in fase solida da quelli in 
fase liquida. Le ricerche finora compiute 
sì sono basate sull'introduzione in cia- 
scun aggregato di una molecola estra- 
nea, diversa da tutti gli altri atomi o mo- 
lecole dell'aggregato, che funge da mar- 
catore. Lo spettro di questa molecola 
(ossia la radiazione di lunghezza d'onda 
caratteristica emessa e assorbita dalla 
molecola) dipende in una certa misura 
dagli atomi circostanti oltreché dal mar- 




FASE SOLIDA 



FASE LIQUIDA 



La coesistenza di aggregati in fase solida e in fase liquida viene illustrata per un intervallo 
finito di temperature. La temperatura rappresentata dai cinque riquadri aumenta andando 
dal basso verso Tatto. L'asse verticale di ciascun riquadro indica V energia libera degli 
aggregati, vale a dire la differenza fra la loro energia interna e il prodotto della temperatura 
per l'entropia. L'asse orizzontale è una misura della non rigidità degli aggregati; quelli in 
fase solida si trovano sulla sinistra, quelli in fase liquida sulla destra, Alla temperatura 
più bassa {riquadro inferiore) esiste un minimo di energia libera solo per gli aggregati in 
fase solida mentre a quella più alta {riquadro superiore) vi è un minimo solo per gli aggregati 
in fase liquida. A temperature intermedie (i tre riquadri centrali \, tuttavia, esistono punti 
di mìnimo per gli aggregati che si trovano sia in fase solida sia in fase liquida: le due fasi 
coesìstono. In altri termini, il punto di fusione e quello di congelamento non coincidono. 



54 le scienze n. 266, ottobre 1990 



le scienze n. 266, ottobre 1990 55 



calore stesso. Di conseguenza lo spettro 
di un marcatore introdotto in un aggre- 
gato in fase solida dovrebbe essere diver- 
so da quello di un marcatore introdotto 
in un aggregato in fase liquida. 

Llmpiego di un laser per eccitare la 
molecola marcatore a un livello di ener- 
gia noto, è un metodo estremamente ef- 
ficace per identificare un aggregato. (La 
lunghezza d'onda della radiazione laser 



necessaria per indurre questa eccitazio-- 
ne dipende strettamente dal tipo di mar- 
catore e dagli atomi che lo circondano 
nell'aggregato.) Poi un secondo laser 
viene sintonizzato a una lunghezza d'on- 
da tale da provocare la ionizzazione del- 
la molecola marcatore già eccitata: ciò 
significa che il secondo laser strappa alla 
molecola uno dei suoi elettroni esterni. 
L'elettrone liberato sfugge, lasciando 




M arcatoti inseriti negli aggregati permettono di distinguere la fa^e liquida da quella soli- 
da. In alto, un atomo di sodio che rutili- iJu marcatore Un rosso) è stato inserito in un 
aggregato di argo con 54 atomi. L'immagine è stata realizzata da Haì-Pmg Cfìeng dell'U- 
niversità di Chicago, Il marcatore emette radiazione di lunghezza d'onda diversa a seconda 
che l'aggregato sia in fase solida (in basso a sinistrai o in fase liquida (in basso a destra). 



una carica positiva sul marcatore e sul- 
l'aggregato in cui esso è inserito. La ca- 
rica risultante offre la possibilità di ap- 
plicare una forza che acceleri l'aggregato 
(mediante un campo elettrico) e quindi 
lo esrragga da un miscuglio, L'aggregato 
viene quindi identificato in base alla sua 
massa, ossia al numero di atomi o mole- 
cole che contiene (si veda V articolo // 
rilevamento con il laser di atomi e mote- 
cole di Vladilen S, Letokhov in «Le 
Scienze» n, 243, novembre 1988). 

Jùrgen Bòsiger e Samuel Leutwyler 
dell'Università di Berna e Mee Barin e 
Robert L. Whetten d elfU ni versi tà della 
California a Los Angeles hanno utilizza- 
to questo metodo per studiare aggregati 
di atomi di argo, l ricercatori svizzeri 
hanno impiegato come marcatore una 
molecola di earbazolo, dalla forma piat- 
ta e allargata, mentre il gruppo statuni- 
tense si è servito del benzene, che è più 
piccolo e tondeggiante. Le molecole 
marcatore introdotte negli aggregati in 
fase solida presentano uno spettro netto 
e distinto, mentre quelle inserite negli 
aggregati in fase liquida hanno uno spet- 
tro allargato. (Nonostante le sottigliez- 
ze riguardanti l'interpretazione dei dati 
speri mentali, le argomentazioni che evi- 
denziano le differenti caratteristiche dei 
due tipi di spettri appaiono convincenti ; ) 

Le due serie di esperimenti sembrano 
' indicare che a una temperatura com- 
presa tra 20 e 30 kelvin (da - 253 a -243 
gradi Celsius) i microaggregati pìccoli 
hanno un comportamento simile a quel- 
lo di un liquido (con spettri allargati) 
mentre quelli grandi appaiono più simili 
a un solido (e hanno spettri netti). Gli 
spettri dei microaggregati di dimensione 
intermedia indicano la coesistenza di ag- 
gregati in fase solida e in fase liquida. 

I dati ottenuti da questi laboratori rap- 
presentano un importante passo avanti 
nel programma sperimentale teso alla 
conoscenza degli aggregati. La coesi- 
stenza di aggregati in fase solida e liquida 
in un intervallo finito di dimensioni* ma 
a temperatura costante, indica senz'altro 
che il punto di fusione e quello di con- 
gelamento devono essere differenti, an- 
che se non si tratta di una dimostrazio- 
ne completa. Idealmente occorrerebbe 
mantenere costante la dimensione degli 
aggregati e far variare la temperatura, 
ma un tale esperimento richiederebbe 
una precisione molto diffìcile da rag- 
giungere. Per dimostrare inconfutabil- 
mente questa conclusione saranno ne- 
cessarie ulteriori ricerche sperimentali. 

Un altro metodo per verificare la teo- 
ria è quello di realizzare simulazioni 
al calcolatore degli aggregati. Natural- 
mente una simulazione non può sostitui- 
re un esperimento reale, ma, nel mo- 
mento in cui vi siano modi oggettivi per 
stabilirne la validità, può rivelare feno- 
meni nuovi e consentire «esperimenti'* 
di gran lunga meno costosi di quelli ef- 
fettuati in laboratorio. I modelli al cal- 
colatore possono anche essere di aiuto 




TEMPO 




TEMPO 




TEMPO 



Le simulazioni al calcolatore deir evoluzio- 
ne della temperatura media degli aggregati 
di argo con 13 atomi a diversi valori di ener- 
gia costante mostrano la coesistenza dì fasi 
liquide e solide, A bassa energia (in alto) gli 
aggregati si comportano come solidi, ad ai- 
ta energia [al centro) come liquidi e a ener- 
gìa intermedia (in basso) si comportano sia 
come solidi sia come liquidi. La temperatu- 
ra dell'aggregato è direttamente proporzio- 
nale alla sua energia cinetica* Ciascun pun- 
tino bianco rappresenta 5 X 10" u secondi. 



nel l'ideare esperimenti di laboratorio. 

I casi in cui risulta particolarmente ori- 
le sfruttare la potenza del calcolatore per 
simulare un sistema sono quelli dove esi- 
ste un valido modello teorico, di appli- 
cazione però troppo complessa per esse- 
re eseguita a mano: un esempio è pro- 
prio il comportamento di un aggregato 
di atomi. Le forze che agiscono fra due 
atomi sono ben note nel caso di molte 
sostanze, ma è impossibile risolvere ana- 
liticamente le equazioni del moto anche 
solo per tre atomi interagenti (per non 
parlare delle situazioni in cui gli atomi 
sono più di tre). Le equazioni relative al 
moto di diversi atomi (anche di un nu- 
mero molto grande) possono tuttavia es- 
sere risolte numericamente con l'aiuto di 
un calcolatore. In questo modo nella si- 
mulazione si può seguire il comporta- 
mento di ciascun «atomo». 

Esaminiamo ora brevemente le simu- 
lazioni di aggregati di atomi di argo ese- 
guite da Thomas L. Beck, Hai-Pìng 
Cheng, Heidi L. Davis, Julius Jellinek, 
David J. Wales e da me all'Università di 
Chicago. Di tutte le informazioni fornite 
da queste simulazioni, la più facile da 
comprendere e la storia di un singolo 
aggregato che si evolve nel tempo, Una 
grandezza molto utile che può essere ri- 
cavata facilmente è la temperatura me- 
dia di un aggregato la cui energia totale 
sia costante o, viceversa, l'energia media 
di un aggregato la cui temperatura sia 
costante, (La temperatura media è pari, 
a meno di un fattore numerico di con- 
versione, all'energia cinetica media.) 

II significalo della parola «medio» in 
questi esperimenti è fondamentale. Cal- 
colare la media della temperatura una 
sola volta in tutta la storia di un aggre- 
gato può essere altrettanto fuorviaste 
che calcolarla per un tempo così breve 
che ciascun atomo dell'aggregato non 
abbia quasi la possibilità di interagire 
con gli altri atomi. In genere calcoliamo 
la media su cinque milionesimi di milio- 
nesimo di secondo, un tempo sufficiente 
perché gli atomi di argo compiano solo 
alcune vibrazioni, 

Abbiamo scoperto che un aggregato 
di 13 atomi di argo mantenuto in una 
situazione di bassa energia presenta mi- 
nuscole fluttuazioni di temperatura in- 
torno alla media e mostra un comporta- 
mento simile a quello di un solido. Un 
aggregato di energia molto più elevata 
ha una temperatura media significativa- 
mente più alta e fluttuazioni analoga- 
mente più ampie intorno a questa tem- 
peratura. Diversi aspetti del suo com- 
portamento indicano che l'aggregato è in 
fase liquida. Se sì aumenta a sufficienza 
l'energia dell'aggregato, la simulazione 
mostra atomi che «evaporano» da esso, 
proprio come ci si aspetterebbe. 

Fra i due estremi vi è un intervallo di 
energie in cui alcuni aggregati, di energia 
costante, presentano un comportamen- 
to davvero notevole: trascorrono lunghi 
periodi di tempo in fase solida, poi, più 
o meno casualmente, passano in fase li- 



quida rimanendovi a lungo, quindi tor- 
nano in fase solida e cosi via, Questa 
coesistenza è una caratteristica anche di 
aggregati dell'argo composti da sette, 15 
o 19 atomi. 

È però opportuno notare che non tutti 
gli aggregati mostrano chiaramente la 
coesistenza di due fasi: un esempio di 
questo tipo sono gli aggregati dell'argo 
costituiti da sei, otto o 17 atomi. Gli ag- 
gregati dì sei atomi di rame presentano 
fasi solide sia rigide sia «morbide». Al- 
cuni aggregati di cloruro di sodio, se- 
condo simulazioni condotte da Daphna 
Scharf e Joshua Jortner dell'Università 
di Tel Aviv e da Uzi Landman del Geor- 
gia Institute of Technology, possono 
avere simultaneamente regioni in fase 
solida e in fase liquida su lati diversi dello 
stesso aggregato. In simulazioni effet- 
tuate da Cheng, le superfici dì aggregati 
di argo composti da 52 o 55 atomi fon- 
dono a temperature molto inferiori alla 
temperatura di fusione degli aggregati 
stessi; questa osservazione dimostra che 
negli aggregati le caratteristiche superfi- 
ciali hanno un'importanza molto mag- 
giore che nella materia con% r enzionale. 

In definitiva, i micro aggregati posso- 
no mostrare una grande varietà di com- 
portamenti via via che si aumenta la loro 
energia e che la loro struttura diventa 
meno rigida e più deformabile. Certa- 
mente questa complessità di fenomeni si 
rivelerà uno strumento utile per studiare 
sempre più a fondo i processi di transi- 
zione di fase. 



BIBLIOGRAFIA 

HILL T. L,, The Thermodynamics of 
Snudi Svstems, parte 1 e 2, Benjamin 
Co., Inc., 1963, 

Large Finite Systems in Proceedmgs of 
ihe Jerusulem Symposia on Quantum 
Chemìstry and Bìochemistry , 20, a cu- 
ra dì Joshua Jortner, Alberte Pullman 
e Bernard Pullman, Reidei Publishing 
Co,, 1987, 

SUGANO S., NISHJNA Y, e OUNISHI S. (a 

cura), Microclasters, Springer-Verlag, 
1987. 

JENA P», RAO B. K, e KHANNA S, N. (a 
cura), Physics and Chemìstry of Smail 
Clusters, Plenum Press, 1987, 

BENEDEK G. e PACCHIONI MARTJN (a 
cura), Ekmcntal and Moiecular Cla- 
$ters y Springer-Verlag, 1988, 

Evoluitoti ofSize Effects in Chemical 
Dynamics, parte lì, in Advances in Che- 
mical Physics, 70, a cura di llya Prigogi- 
ne e Stuart A. Rice, Wiley-Intersrience, 
1988, 

77?^ Chemical Physics of Àtomi e and 
Moiecular Clusters in Proceedings ofthe 
CVII Course ofthe International School 
of Physics «Enrico Fermi», V a ren- 
na, 289, a cura di Giacinto Scoles e $♦ 
Stringare Società Italiana di Fisica, in 
stampa. 



56 LE SCIENZE n. 266, ottobre 1990 



LE scienze ri, 266. ottobre 1990 57 









La dispersione dei semi 
da parte delle formiche 

Migliaia di specie vegetali distribuite in tutto il mondo dipendono da 
questi insetti per la disseminazione: li attraggono con esche alimentari 
o altre strategìe e li inducono a diffondere i semi senza danneggiarli 

di Steven N. Handel e Andrew J. Beattie 







'J 



Spesso le piante devono ricorrere al- 
la collaborazione degli animali 
per disperdere i propri semi su un 
vasto areale. Alcune specie producono 
semi che si attaccano temporaneamente 
al mantello dei mammiferi o al piumag- 
gio degli uccelli; gii alberi da frutto e 
altre piante hanno invece semi che ven- 
gono ingeriti dagli animali frugivori, i 
quali lì rigurgitano o li eliminano con gli 
escrementi, facendo così in modo che 
questi semi possano germinare a distan- 
za, Non sono però solo i vertebrati a di- 
sperdere i semi delle piante: anche le for- 
miche svolgono un ruolo importante* 

I biologi stanno appena cominciando 
a riconoscere i meccanismi specializzati 
che fanno della formica uno dei princi- 
pali artefici della diffusione delle piante 
in tutto il mondo. E, in effetti, le piarne 
che si avvalgono di questo imenottero 
per la dispersione dei semi si trovano in 
habitat diversi su tutti ì continenti, a ec- 
cezione dell'Antartide. Oggi sono note 
più di 3000 specie di angìosperme, ap- 
partenenti a oltre 60 famìglie, i cui semi 
vengono dispersi in questo modo e la 
lista è ben lungi dall'essere completa. 

Tra molte piante e le formiche che ne 
trasportano i semi esiste un vero e pro- 
prio mutualismo, cioè un'interazione 
vantaggiosa per ambo le parti. Questo 
mutualismo è sono indipendentemente 
in un numero così elevato di gruppi di 
piante da far pensare all'esistenza di for- 
ti pressioni, frequentemente ricorrenti, 
che lo favoriscano. In questo articolo 
concentreremo la nostra attenzione sul- 
l'evoluzione di questo mutualismo e sui 
vantaggi ecologici che esso ha prodotto. 

Le formiche disperdono i semi me- 
diante due meccanismi generali. Il primo 
dipende dalla scarsa efficienza con la 
quale le formiche foraggiai rici, che rac- 
colgono grandi quantità di semi, traspor- 
tano questi ai nidi per poi nutrirsene. 
Alcuni semi cadono e vanno perduti lun- 

60 le scienze n. 266, ottobre 1990 



go il tragitto, altri possono rimanere 
nascosti nel terreno, in modo da sfuggi- 
re alle formiche operaie. Germinando, 
questi semi possono dare origine a pian- 
tale che colonizzano altre località. 

Poiché il numero dei semi mangiati 
dalle formiche supera quello dei semi 
perduti o ignorati, questo meccanismo 
di dispersione sembrerebbe più vantag- 
gioso per le formiche che non per le 
piante, a cui viene in definitiva sottratta 
gran parte dei semi. Il meccanismo di 
dispersione da parte delle formiche fo- 
raggiai rici viene allora descritto più co- 
me un esempio di predazione che non di 
mutualismo. Il suo impatto è limitato in 
larga misura agli habitat aridi, 

lì secondo meccanismo di dispersio- 
ne, che ri interessa maggiormente, è di- 
verso e ha un significato di gran lunga 
più ampio. Riguarda le piante che pro- 
ducono un elaiosoma (o eleosoma), cioè 
un corpo ricco di grassi attaccato al seme 
o vicino a esso. Gli elaiosomi attraggono 
le formiche, che lì trasportano, assieme 
ai semi, nei propri nidi; qui i membri 
della colonia mangiano gli elaiosomi e 
scartano i semi senza danneggiarli. 

Questo meccanismo non sacrifica i se- 
mi alla predazione delle formiche, ma è 
un esempio di reale mutualismo, che 
porta beneficio sia alle formiche sia alle 
piante. Lo si definisce «mirmecoeoria», 
un termine un po' impropriamente mu- 
tuato dal greco che significa appunto «di* 
spersione a opera delle formiche». 

Gli elaiosomi sono comparsi a più ri- 
prese, con la funzione di esche per le 
formiche, durante l'evoluzione di diver- 
se famiglie di piante. Essi si trovano co* 
illunemente nelle piante dei boschi umi- 
di dell'America nordorientale e dell'Eu- 
ropa, nelle comunità vegetali della bo- 
scaglia dì ambiente arido dell'Australia 
orientale e nelle comunità vegetali del- 
l'Africa meridionale. 

Spesso solo alcune specie in ogni fa- 



miglia si affidano alle formiche per la 
dispersione dei semi. Per fare un esem- 
pio, nel genere Carex, ricco di specie, 
solo alcune portano elaiosomi di cui sia 
stata dimostrata la funzione dì esca per 
le formiche. In molte altre specie dello 
stesso genere la dispersione avviene per 
mezzo dell'acqua odi vertebrati. Analo- 
gamente nel genere Trìllitwi . compren- 
dente gigliacee caratterizzate da grossi 
fiori, che crescono nei boschi, alcune 
specie hanno semi con elaiosomi, che 
vengono dispersi dalle formiche, men- 
tre altre hanno frutti carnosi contenenti 
semi che vengono dispersi dai vertebrati. 
Come illustrano questi esempi tratti da 
gruppi filogeneticamente molto diversi, 
la mirmecocoria può comparire indipen- 
dentemente nell'ambito di vari generi. 

Questo meccanismo di dispersione dei 
semi fu studiato per la prima volta 
in modo esauriente da Johan Rutger 
Sernander, botanico dell'Università di 
Uppsala in Svezia, il quale nel 1906 pub- 
blicò una rassegna sulle piante mirmeeo- 
core europee. Per la ragguardevole im- 
postazione sperimentale, quantitativa, 
della ricerca, il libro di Sernander ser- 
vì a stabilire quale fosse l'importanza 



Questa gi gì iacea selvatica, TrìUium petioia* 
tum, si è evoluta con una morfologia mollo 
caratteristica, che stimola le formiche a dì* 
s perderne \ semi. Il fiore spunta insolita- 
mente vicino al suolo, il che permette alle 
formiche di raggiungere più facilmente ì se- 
mi maturi. Come ulteriore fattore stimo- 
lante, i semi sono dotati dì corpi ricchi di 
grassi, gli elaiosomi, che esercitano sulle 
formiche una forte attrazione. Le formiche 
trasportano nei loro nidi i semi con gli ela- 
iosomi dei quali si nutrono scartando la 
parte germinale che finirà per svilupparsi. 




^f 



WEu'im 




Dicentra cuculiarti! [a sinistra) è una pianta erbacea che cresce nelle 
regioni boscose v produce semi con elaiosomi che maturano ed 
escono dall'involucro (al centra} verso la line della primavera. A 
maggiore ingrandimento u; destra), vengono mostrati quattro semi 



muniti di elaioMimi insieme ad altri quattro semi prelevati da un 
cumulo di rifiuti in un formicaio. Questi ultimi, pur essendo privi 
degli elaiosomi che sono sfati ingeriti dalle formiche, trovano un 
ambiente molto adatto alla germinazione nel fertile suolo del nido» 



della mirmecocoria per buona parte del- 
la vegetazione europea. Egli aveva ese- 
guito una lunga serie di esperimenti sul 
campo» prendendo in considerazione 
molte specie vegetali e dimostrando co- 
si che le formiche, quando possono sce- 
gliete tra una varietà di semi, prefe- 
riscono diffondere quelli provvisti di 
elaiosomi. 

Le piante mirmecocore furono studia- 
te in un primo tempo in Europa, ma ben 
presto i botanici cominciarono a cercare 
questo meccanismo di dispersione dei 
semi nella vegetazione degli altri conti- 
nenti. Poco per volta, alla lista delle mir- 
mecocore note si aggiunsero specie del 
Nuovo Mondo. In Europa e nell'Ameri- 
ca Settentrionale, le mirmecocore sono 
generalmente piante erbacee che cresco- 
no nelle foreste umide, decidue. (Ser- 
nander fu il primo a notare questa cor- 
relazione.) Nell'America Latina, i semi 
delle piante erbacee, delle epifite e del- 
le liane della foresta pluviale tropicale 
vengono spesso dispersi a opera delle 
formiche. 

Le piante mirmecocore sono partico- 
larmente abbondanti anche in Australia 
e nell'Africa meridionale, dove sono 
rappresentate da arbusti a foglie coria- 
cee che crescono su un suolo arido e po- 
vero di sostanze nutritive. Nel 1975 Rolf 
Y. Berg dell'Università di Oslo ha pub- 
blicato i risultati di ricerche secondo cui 
i semi di circa 1500 specie di piante au- 
straliane , appartenenti a 87 generi diver- 
si, vengono dispersi dalle formiche. La 
vegetazione chiamata fynbos. nell'Afri- 
ca meridionale, contiene anch'essa più 
di 1000 specie di questo tipo. Le ricerche 
oggi in corso nelle regioni tropicali ag- 
giungeranno indubbiamente molti altri 
nomi alla lista. 



La diversità tassonomica delle piante 
provviste di elaiosomi trova una corri- 
spondenza nell'ampia varietà di tessuti 
vegetali che l'evoluzione ha modificato 
in strutture adatte ad attrarre le formi- 
che . In alcune specie, per esempio in Di- 
centra cucu ila ria . una sezione del tessu- 
to che costituisce il rivestimento del se- 
me si è espansa e modificata a formare 
un efaiosoma. In altre, tra le quali le ra- 
nuncolacee a fioritura primaverile del 
genere Hepatica, che crescono nell'A- 
merica nordorientale, l'elaìosoma deri- 
va da una porzione della parete dell'o- 
vario che circonda il seme. In certe spe- 
cie di Carex gli elaiosomi hanno origine 
invece dal tessuto bratteale che circonda 
l'ovario. Si conoscono numerose altre 
strutture che producono elaiosomi nelle 
angiosperme. 

Nel complesso, le origini diverse degli 
elaiosomi costituiscono un buon esem- 
pio di evoluzione convergente, che di- 
mostra come strutture con forme e fun- 
zioni differenti possano essere rimodel- 
late dalla selezione naturale per svolgere 
un medesimo ruolo ecologico. Nel caso 
degli elaiosomi, tessuti vegetali aventi in 
origine una funzione protettiva contro 
gli insetti erbivori e altre minacce sono 
stati modificati biochimicamente e strut- 
turalmente in esche commestibili per le 
formiche. 

Gli elaiosomi sono composti da cellu- 
le profondamente modificate che 
contengono grossi vacuoli riempiti da un 
ricco miscuglio di sostanze nutritivi- 
Andreas Bresinsky, dell'Uni versila di 
Monaco di Baviera, dopo aver esamina- 
to una vasta selezione di piante mirme- 
cocore, ha riferito che gli elaiosomi con- 
tengono molti grassi, acidi grassi e altre 



comuni sostanze nutritive indispensabili 
per gli animali, Queste sostanze potreb- 
bero dunque essere consumate come ci- 
bo dalle formiche. 

La maggior parte delle formiche è on- 
nivora e mangia insetti e parti di piante 
e di animali che trova sul suolo- E pos- 
sibile che gli elaiosomi e i semi a essi uniti 
«imitino» chimicamente i tessuti animali 
e in questo modo traggano in inganno le 
formiche. 

Gli elaiosomi potrebbero contenere 
anche sostanze stimolanti che innescano 
nelle formiche il comportamento di fo- 
raggiamento. Diane L. Marshall dell'U- 
niversità del New Mexico, assieme ai 
suoi collaboratori, ha identificato negli 
elaiosomi della viola mammola i Viola 
odorata} una sostanza specifica, 1*1,2- 
-dioleina. che è un composto lipidico po- 
lare. Un lipide analogo è stato scoper- 
to negli elaiosomi di due arbusti austra- 
liani. Acacia myrtifoìia e Tetratheca 
stenocarpa. 

L'importanza di questi composti per 
le formiche non è ancora chiara, ma la 
loro presenza in piante mirmecocore che 
crescono in regioni del globo così lonta- 
ne l'una dall'altra fa pensare che sia in 
atto una convergenza evolutiva. Fatto 
ancora più interessante, questa somi- 
glianza conduce all'ipotesi che lelaioso- 
ma provochi altri comportamenti del re- 
sto già innati nelle formiche oltre a quel- 
lo di raccolta del cibo. Per esempio, si sa 
che l'addo oleico stimola la necroforesi, 
ossìa il trasporto di corpi morti, in alcune 
formiche: si pensa, dunque, che anche 
gli elaiosomi contenenti questa sostanza 
vengano raccolti per la stessa ragione. 

Oltre agli elaiosomi che fungono da 
esche alimentari, le piante mirmecoco- 
re presentano talvolta altri adattamenti 



morfologici che facilitano il piazzamento 
dei semi presso le piste percorse dalle 
formiche. In alcune specie sia lo stelo sia 
il sostegno del frutto sono esili e deboli 
e si piegano quando i semi sono maturi. 
Onesto fa sì che i semi vengano a trovarsi 
in prossimità del suolo, o addirittura a 
contatto con esso, proprio dove le for- 
miche vanno alla ricerca di cibo. 

In altre specie vegetali la morfologia 
tipica subisce alterazioni più profonde. 
Per esempio, in Carex umbellata , una 
specie di pianta palustre da noi studiata, 
lo stelo fiorale è eccezionalmente eorto 
e i semi, con i tessuti circostanti, matu- 
rano in prossimità del suolo. Di conse- 
guenza, invece di svilupparsi su lunghi 
steli che si piegano verso terra una volta 
raggiunta la maturità, i semi rimangono 
per tutto il periodo di sviluppo stagiona- 
le a portata delle formiche. 

Una alterazione ancora più marcata si 
osserva nella morfologia di Trillami 
petiohitum, una gigliacea selvatica del- 
l'America nordoccidentale. La maggior 
parte delle piante del genere Trillium ha 
un fiore e tre foglie che si sviluppano alla 
sommità di un lungo stelo, spesso alto 30 
centimetri. In T. petiokmmu invece, il 
fiore grosso e vistoso sùforma in prossi- 
mità del suolo, dove i semi con elaiosomi 
maturano e finiscono alla portata delle 
formiche. 

Inoltre nel genere Trillium le foglie 
hanno per lo più una disposizione spira- 
lata al di sotto del fiore, ma in T. petto- 
latum questa disposizione farebbe arri* 
vare le foglie a livello del pavimento dei- 
la foresta. Pertanto le lamine fogliari, 
pur originando in posizione normale sot- 
to il fiore, sì sviluppano all'estremità di 
lunghi piccioli o steli che le rialzano al dt 
sopra del fiore, in una posizione più fa- 
vorevole per la fotosintesi. In breve, la 
struttura usuale del genere TritUum è qui 
pressoché capovolta. Una spiegazione 
evoluzionistica ragionevole della confor- 
mazione di T. peùoiatum deve tener con- 
to dei notevoli vantaggi che sono legati 
alla dispersione dei semi da parte delle 
formiche, 

Per facilitare la disseminazione, le 
piante mirmecocore potrebbero anche 
avere alterato i tempi di maturazione dei 
propri semi. Per esempio, nei climi tem- 
perati la maggior parte di esse presenta 
semi ed elaiosomi che maturano all'ini- 
zio della primavera. In questo periodo 
gli insetti morti, che rappresentano spes- 
so la fonte di cibo primaria delle formi- 
che, non sono così abbondanti come in 
estate, dopo che è avvenuta la riprodu- 
zione. Pertanto le piante i cui elaiosomi 
maturano in primavera possono attrarre 
più facilmente l'attenzione delle formi- 
che che ricercano il cibo e i semi potreb- 
bero venire asportati con una frequenza 
maggiore di quelli prodotti in estate o 
in autunno. 

La selezione naturale in favore di una 
maturazione precoce dei semi e degli 
elaiosomi potrebbe spiegare così la pre- 
dominanza di piante mirmecocore a fio- 



ritura primaverile. Certamente possono 
esservi altri fattori a favorire l'elevata 
attività metabolica delle piante erbacee 
boschive in primavera: per esempio la 
maggiore disponibilità di luce a livello 
del pavimento forestale prima che si svi- 
luppino le fronde della volta. Lo sfrutta* 
mento della ricerca di cibo da parte delle 
formiche potrebbe essere soltanto un'ul- 
teriore pressione selettiva che ha favori- 
to l'evoluzione delle piante mirmecoco- 
re i cui semi maturano all'inizio della 
primavera. 

Le formiche che raccolgono i semi delle 
' piante mirmecocore sono molte e dt 
specie assiti diverse, Parecchie di esse 
sono chiaramente adattate a un tipo di 
alimentazione che è in primo luogo car- 
nivora. Per esempio, Carol C. Horvitz 
dell'Università di Miami ha dimostrato 
che nel Messico meridionale le formi- 
che che trasportano i semi di Caiathea 
appartengono ai generi Odontomaehus 
e Pachycondyla, caratterizzati da robusti 
pungiglioni e da grosse mandibole per 
sopraffare la preda. Le formiche raccol- 
gono i semi con grande avidità e li por- 
tano nei loro nidi dove staccano gli e- 
laiosomi per darli in pasto alle larve. 
Forse alcune sostanze chimiche presenti 
negli elaiosomi stimolano le formiche 
nello stesso modo in cui le stimolerebbe 
una preda. 

Molti altri generi di formiche usano 
disperdere semi; Formica, Myrmica e 
Aphaetiogaster sono comuni nelle fore- 
ste temperate europee e nordamericane; 
specie di Rhytidoponcra . Pheidolee fri- 
domyrmex sono numerose nelle bru- 
ghiere dell'Australia sudorientale. Per* 
Fino Mesmr, Pogonomyrmex e Vero- 
messor, che normalmente raccolgono 
semi e se ne nutrono, in certe condizioni 
sono state identificate come agenti di 
disseminazione, 

Da un punto di vista strategico, è im- 
portante che la mirmecocoria interessi 
quante più specie di formiche possibile. 
In qualunque ambiente si trovano gene- 
ralmente molte specie diverse e una 
pianta che si sia evoluta in modo da at- 
trarne soltanto una si troverebbe proba- 
bilmente in svantaggio. Di fatto T delle 
migliaia dì specie di piante mirmecocore 
note, non una è risultata dipendente da 
una singoia specie di formiche. 

Allo stesso modo non vi è alcuna pro- 
va che una qualsiasi specie di formiche 
si sia evoluta in modo da ricavare van- 
taggio da una particolare pianta mirme- 
cocora. Questa mancanza di specializza- 
zione è in netto contrasto con le nume* 
rose redazioni specie -specifiche tra inset- 
ti e piante che sono state osservate ai 
tropici, relazioni spesso assai importanti 
per l'impollinazione. 

Pertanto, ti fenomeno della mirmeco- 
coria si può descrivere più propriamente 
come il risultato di un'evoluzione delle 
piante, e non come quello di una coevo- 
luzione di una pianta e di un insetto. Per 
le formiche un elaiosoma potrebbe esse- 



ALCUNI SEMI 
CON ELAIOSOMI 



ELAIOSOMA 



SEME ^ 




Viola nutiaftiì 




Cofydaiis aurea 




ifpHlIPPIipw 
Polygaia vutgans 




Lamium album 



62 LE SCIENZE n. 266, ottobre 1 990 



le scienze n, 266, ottobre 1990 63 



re nienf altro che una fonte di sostanze 
nutritive da trasportare nel nido. 

Perché proprio le formiche sono state 
prescelte dalla selezione naturale per ef- 
fettuare la disseminazione? Negli habi- 
tat in cui crescono le piante mirmecoco- 
re sono certamente comuni molti altri 



gruppi di insetti. Ma perché la dispersio- 
ne dei semi si svolga in modo efficace è 
necessario che un insetto li trasferisca a 
una distanza significativa senza danneg- 
giarli. Solo gli insetti sociali, che portano 
il cibo al nido invece di mangiarselo sul 
posto, soddisfano entrambi i criteri. Le 



VANTAGGI DELLO SVILUPPO SU FORMICAI 

I SEMI VENGONO POSTI A DIMORA 




Due gruppi di 2550 semi di Corydalis 
aurea sono stati piantati in formicai e 
in altre sedi L" istogramma mostra ti 
successo relativo delle piante di cia- 
scun gruppo in stadi differenti. Un 
numero di gran lunga superiore di 
semi è stato prodotto dalle piante 
cresciute sui formicai. 



- FORMICAI 



SPUNTANO LE PLANTULE 











PIANTE SOPRAVVISSUTE ALL INVERNO 




PIANTE CHE PRODUCONO SEMI 





\ ALTRE 



SEDI 



NUMERO TOTALE DI SEMI PRODOTTI 



FORMICAI: 20 448 



ALTRE SEDI: 10 718 



formiche operaie ripuliscono in genere 
farca attorno ai nido e trasportano il ci- 
bo nel nido stesso per nutrire ìe larve. 
L'evoluzione del comportamento socia- 
le ha pertanto preadattato, o predispo- 
sto, le formiche a diventare agenti ideali 
per la dispersione dei semi. 

Le formiche hanno anche caratteri- 
stiche comportamentali che le rendono 
particolarmente adatte a svolgere il ruo- 
lo di agenti di dispersione dei semi. Nella 
maggior parte degli habitat esse sono gli 
insetti più abbondami Svolgono La loro 
attività in superfìcie mostrandosi note* 
volmente efficienti nella raccolta del ci- 
bo durante la lunga stagione di crescita 
delle piante. Quando trovano nuove ri- 
sorse alimentari, reclutano operaie per 
raccogliere quanto più cibo possibile. 
Arrivano persino al punto di trasferire 
l'intero nido in aree che sembrano par- 
ticolarmente ricche di fonti alimentari. 
Tutti questi comportamenti sono evi- 
dentemente vantaggiosi per le piante 
mirmecocore. 

Dal momento che La mirmecocoria è 
presente in habitat molto diversi un po' 
in tutto il mondo, gli ecologi si sono 
chiesti se sia in qualche modo possibile 
trarre conclusioni generali sui vantaggi 
evolutivi di questo fenomeno per le pian- 
te. Solo di recente una serie di esperi- 
menti sul campo e in laboratorio ha mes- 
so in luce come la funzione adescai rice 
esercitata dai semi nei riguardi delle for- 
miche foraggiatici possa accrescere la 
sopravvivenza e la fecondità di una spe- 
cie vegetale. 

Un vantaggio fondamentale legato al- 
la dispersione dei semi da parte delle for- 
miche è l'espansione dell'area di distri- 
buzione della pianta che ha prodotto i 
semi. Sono state spesso osservate formi- 
che che trasportavano i semi per un me- 
tro o due, ma sono stati anche riferiti 
spostamenti di 7(1 metri. Pertanto, le for- 
miche rendono possibile la colonizzazio- 
ne di nuove arce da parte delle specie 
vegetali, Disperdendo la propria popò* 
lazione, una specie vegetale riduce il ri- 
schio di estinguersi a seguito di cam- 
biamenti locali nell'habitat. Qualunque 
specie di formica» indipendentemente 
dalle modalità con cui costruisce il nido, 
può dare questo vantaggio, 

Le formiche possono anche fare au- 
mentare le probabilità di sopravviven- 
za di un seme trasportandolo lonta- 
no dalla pianta che lo ha generato: la 
stessa pianta, infatti, facendogli ombra 
potrebbe inibirne lo sviluppo. In un 
esperimento eseguito da uno di noi 
(Handel), i semi di Carex peduncuima 
lasciati crescere all'ombra della pianta 
madre hanno dato origine a pian tuie con 
tre sole foglie. Nello stesso periodo, te 
plantuk sviluppatesi da semi che erano 
stati trasportati lontano dalla pianta ma- 
dre hanno prodotto una media di 89 fo- 
glie. Inoltre questi semi erano di gran 
Funga più fecondi: i soli che abbia- 
no dato origine a piante fiorite l'estate 
successiva. 




Le formiche operaie della specie Aphaenogamr rudis trasportano le queste possano nutrirsi degli elaiosomi. Non si sa ancora esatta- 
larve in prossimità dì semi di Sanguinaria eanadensis. in modo che mente quali vantaggi le formiche traggano da questo alimento. 



TI trasporto dei semi da parte delle for- 
^ miche, oltre a contribuire a minimiz- 
zare La competizione tra pianta madre e 
piantale, può ridurre anche ìa competi- 
zione tra differenti specie vegetali. Per 
esempio, uno di noi (Handel) ha effet- 
tuato esperimenti con tre specie di Carex 
che crescevano nello stesso habitat, urta 
sola delle quali era mirmecocora, Que- 
sta non cresceva bene in presenza delle 
altre , ma prosperava quando era isolata. 

Dato che le formiche nella zona del- 
l'esperimento erano attratte soltanto da 
semi provvisti di elaiosomi, finivano per 
provocare un isolamento naturate di 
questi semi nei loro nidi. La pianta mir- 
mecocora riusciva dunque a monopoliz- 
zare certi siti dell'habitat in cui t nidi di 
formiche erano comuni, per esempio il 
legno marcescente. Essa non doveva 
competere con le plantule delle altre 
specie di Carex per lo spazio, la luce, le 
sostanze nutritive e altre risorse fonda- 
mentali. La mirmecocoria poteva essere 
una strategia efficace anche in presenza 
di molti altri generi di vegetali le cui 
piantole competono per i siti di crescita. 

Ancor più della competizione, la pre- 
dazione è una causa importante della r^ 
duzione numerica di semi e pìantule. 
Molti animali, tra cui uccelli e piccoli 
roditori, mangiano soprattutto semi. E 
chiunque pratica il giardinaggio sa che le 
lumache e le limacce sono una minaccia 
mortale per le giovani plantule. 

In diverse parti del mondo la ricerca 



si è concentrata sulla possibilità che i se- 
mi portati nei nidi delle formiche sfug- 
gano almeno ad alcuni predatori. Studi 
effettuati nelle foreste della Virginia oc- 
cidentale e nei prati di montagna del Co- 
lorado hanno rivelato che i semi posti in 
piccole zone da cui le formiche erano 
escluse venivano invariabilmente man- 
giati nell'arco di 24 ore. Per contro, in 
presenza di formiche, i semi con gli 
elaiosomi venivano portati rapidamente 
sottoterra. Nel caso di Viola nuttaUii, ch^ 
cresce nel Colorado, Christine Turnbull 
della Macquarie University ha dimostra- 
to che La liberazione stagionale e giorna- 
liera dei semi coincide con il livello mas- 
simo di attività delle formiche. 

In Australia si segnala un esempio 
particolarmente interessante di strategia 
antipredatoria. Nelle regioni boscose e 
nelle savane, dove La vegetazione è per 
Lo più costituita da arbusti sclerosili (a 
foglie coriacee), le specie mirmecocore 
sono numerose. E pure Io sono i preda- 
tori ma, per ironia della sorte, le princi- 
pali specie predatrici sono formiche. Un 
recente lavoro di Lesley Hughes, anch' e- 
gli della Macquarie University, suggeri- 
sce che i semi liberati in questo ambiente 
attendano i vincitori di una «gara» tra 
specie di formiche benefiche, che disper- 
dono i semi, e specie dannose, che se li 
mangiano. 11 destino dei semi dipende da 
quale tipo di formiche lì trovi per primo. 
La presenza di elaiosomi sui semi accre- 
sce la probabilità che una formica disse- 



minatrice raggiunga i semi stessi prima 
di una formica predatrice, 

Un'altra minaccia è costituita dagli in- 
cendi, particolarmente nella vegetazio- 
ne australiana e sudafricana dove predo- 
minano gli arbusti. In queste piante, pe- 
rò, sono comuni gli adattamenti per so- 
pravvivere al fuoco, Inoltre molte spe- 
cie, alcune delie quali sono mirmecoco- 
re, non sono semplicemente resistenti al 
fuoco, ma dipendono addirittura dagli 
incendi per potersi riprodurre. 

Ricerche effettuate da diversi autori 
australiani indicano che la rimozione dei 
semi da parte delle formiche e il loro 
trasporto nei nidi proteggono i semi stes- 
si dal calore distruttivo degli incendi che 
divampano nella boscaglia. Ma, para- 
dossalmente, alcuni dei semi dispersi 
dalle formiche non possono germinare 
se non sono esposti a livelli di calore più 
bassi, non dannosi. Scavando nei formi- 
cai si è trovato che i semi vengono sepolti 
a profondità diverse. Questa disposizio- 
ne può arrecare vantaggio alle piante, 
perché fa sì che almeno alcuni semi siano 
sepolti a una profondità sufficiente a 
proteggerli dal calore eccessivo, ma a 
una temperatura ancora abbastanza ele- 
vata da farli germinare, 

T*\ iversamente dagli uccelli e dai mam- 
*-* mi feri, che disperdono ampiamen- 
te ì semi nell'habitat, le formiche li por- 
tano nei loro nidi, che hanno una loca- 
lizzazione ben precisa. Si tratta di un al- 



64 LE SCIENZE n. 266, ottobre 1990 



le scienze n. 266, ottobre 1990 65 




Le formiche costruiscano spesso il nido su tronchi marcescenti. Le piante qui fotografate 
si sono sviluppate da semi portali nel nido. Quasi tutte le piante visibili nell'immagine ap- 
partengono alla specie Carex pedunculata, ma si notano anche viole mammole ed epatiche. 



tro schema comportamentale che favo- 
risce la sopravvivenza dei semi. Per 
esempio, nelle foreste moderatamente 
umide, le formiche costruiscono spesso 
i nidi nei tronchi e nei ceppi marcescenti 
che sporgono dal suolo. Queste posizio- 
ni sono meno suscettibili di essere som- 
merse dalle inondazioni primaverili, e 
ciò rappresenta un vantaggio sia per le 
formiche sìa per i semi. 

Le colonie di formiche, come tutte le 
altre società animali e anche (e soprat- 
tutto) quelle umane, tendono ad accu- 
mulare materiale di scarto. I loro cumuli 
di rifiuti contengono resti di prede, feci, 
membri della colonia morti e un gran 
numero di altri oggetti (alcuni dei qua- 
li non sembrano avere un'utilizzazione 
evidente) che le formiche raccolgono e 
invariabilmente portano al nido. I semi 
germinanti e le planlule, particolarmen- 
te quelle di specie mirmeeocore, posso- 
no trarre beneficio dal fatto di crescere 
su questi cumuli. 

1 rifiuti organici contengono spesso 
elevate concentrazioni di sostanze nutri- 
tive di importanza fondamentale per la 
crescita della pianta: è questo il motivo 
per cui chi si occupa di giardinaggio 
prov vede sempre ad avere cumuli di con- 
cime e gli agricoltori spargono sui campi 
il letame che raccolgono dalle stalle. I 
livelli di materiale organico, e quindi di 
azoto, potassio e fosforo, sono spesso 
più elevati nei formicai che non nel ter- 
reno circostante. Pertanto i rifiuti pro- 
dotti da una colonia di formiche possono 
costituire una piccola, ma sempre dispo- 
nibile, provvista di fertilizzante per le 
plantule. in grado di n utrirle nei loro pri- 
mi, delicati stadi di crescita. 

La sopravvivenza delle pian tuie può 
essere favorita anche da altre caratteri- 



66 le scienze n. 266, ottobre 1990 



stiche fìsiche del suolo nei formicai e at- 
torno a essi. La costruzione del formica- 
io rende spesso il terreno soffice e ben 
aerato e ne aumenta la capacità igrosco- 
pica. Alcuni ricercatori ritengono che il 
vantaggio fondamentale offerto da molti 
formicai alle plantule sia quello di garan- 
t i re un rifornimento d'acqua, sia pur mo- 
desto, almeno fino a quando le radici si 
sviluppano a sufficienza da poter trovare 
r acqua da sole, 

È chiaro, quindi, che le formiche pos~ 
sono esercitare una profonda influenza 
sulle condizioni ecologiche in cui avvie- 
ne lo sviluppo dei semi. Per studiare 
rimpallo che la mirmeeoeoria ha avuto 
sull'evoluzione è stato seguito il destino 
di vari semi in esperimenti sul campo. 
Queste ricerche sì sono basale fonda- 
mentalmente su confronti tra due gruppi 
di semi, uno dei quali è stato trasportato 
dalle formiche nel nido mentre l'altro è 
stati) pian tato a mano i n maniera casuale 
nello stesso habitat. U n esempio di espe- 
rimento di questo tipo è un vecchio stu- 
dio eseguito nell'Inghilterra meridionale 
su due specie mirmecocore di viole , Esso 
ha dimostrato che dopo tre anni, quando 
i semi erano germinati, le sole plantule 
spuntale dal suolo e poi sopravvissute 
erano quelle che si erano sviluppate dai 
semi del gruppo trasportato dalle formi- 
che nel nido. 

Uno studio più recente è stato portato 
a termine su una pianta biennale, 
Corydaìis aurea, che produce semi nel 
secondo anno di vita. Frances M, Han- 
zawa del Grinnell College ha scoperto 
che il tasso di sopravvivenza delle plan- 
tule cresciute nei formicai e di quelle cre- 
sciute al di fuori di essi era simile. Tut- 
tavia un maggior numero di plantule cre- 



sciute nei formicai superava Tin verno e 
diventava una pianta adulta in grado di 
riprodursi. Pertanto vi era una differen- 
za rilevante nel numero totale di semi 
prodotti dai due gruppi per una seconda 
generazione: le piante cresciute sui for- 
micai fornivano un numero di semi dop- 
pio rispetto alle piante di controllo. 

Poiché i due gruppi avevano esatta- 
mente lo stesso numero di semi nelìa pri- 
ma generazione, è chiaro che una popo- 
lazione dì Corydaìis aurea cresciuta in 
presenza di formiche disseminatrici può 
svilupparsi molto più rapidamente di 
una popolazione che non abbia avuto 
questo vantaggio. E una popolazione 
che si accresce velocemente ha una mag- 
gior probabilità dì vìncere la competizio- 
ne con altre piante per le sostanze nutri- 
tive, lo spazio e altre risorse. Pertanto, 
la ricerca di Hanzawa ha dimostrato che 
le condizioni ecologiche per la dispersio- 
ne dei semi, per esempio la presenza di 
formiche, hanno influito sul potenziale 
evolutivo delle popolazioni vegetali, 

La mirmeeoeoria. per quanto si è det- 
to, presenta molli ovvi vantaggi per al- 
cune specie di piante. Finora, però, non 
sappiamo esattamente come le formiche 
traggano vantaggio da questo tipo di in- 
terazione. Sappiamo che gli elaiosomi 
sono avidamente ricercati dalle operaie. 
staccali rapidamente con un morso dai 
semi e somministrati alle larve. Ma 
si deve ancora valutare quanto questo 
comportamento influisca sul tasso di cre- 
scita delle colonie di formiche. 

Vale anche la pena di sottolineare che 
non tutte le formiche si dedicano alla 
dispersione dei semi. Quando i semi ca- 
dono dalla pianta, solo una frazione del- 
le specie di formiche presenti in un habi- 
tat e attratta dagli elaiosomi. In queste 
formiche deve essere presente una spe- 
cializzazione, ma non si sa ancora se que- 
sta sìa di natura comportamentale, mor- 
fologica, alimentare o di altro tipo. 

Pertanto la dispersione dei semi a ope- 
ra delle formiche è un modello impor- 
tante per lo studio dì un'ampia gamma 
di interazioni pianta/animale che in un 
certo senso sembrano asimmetriche. È 
evidente che le piante si sono adattate a 
interagire con le formiche e il carattere 
adattai ivo più lampante è la presenza de- 
gli elaiosomi: gli adattamenti delle for- 
miche nei riguardi delle piante sono, in- 
vece, molto meno chiari. 

Come sistema di dispersione dei semi 
la mirmeeoeoria è valida ma non a tutta 
prova, Un elaiosoma rappresenta un pa- 
sto ambito per molti differenti tipi di for- 
miche. Gli esperimenti con Corydaìis 
aurea hanno dimostrato che nessuna 
piantala è mai spuntata dai nidi di certe 
specie dì formiche. In effetti, queste for- 
miche sembrano avere un comporta- 
mento parassitario come «rapì natrici di 
elaiosomi*e. nelilmpossessarsidi questi 
ultimi, probabilmente distruggono i se- 
mi o ìe plantule da essi germinate. 

A parte le formiche rapi natrici, una 
decina di altri fattori in un dato habitat 



può contribuire al successo o al fallimen- 
to della mirmeeoeoria come meccani- 
smo di dispersione dei semi. La pioggia 
può allagare i formicai e le colonie di 
formiche possono essere soggette a epi- 
demie di malattie fungine o a massicci 
assalti di predatori. Se abbondano ìe al- 
tre fonti alimentari» gli elaiosomi posso- 
no attrarre le formiche in misura minore; 
inoltre, se si instaura una competizione 
tra varie specie vegetali per attirare l'at- 
tenzione delle formiche, i semi dotati di 
elaiosomi più pìccoli possono venire 
ignorati. 

Poiché l'esito della dispersione dei se- 
mi da parte delle formiche può essere 
molto variabile. Hall Cushman della 
Macquarie University e John F. Addi- 
coti dell'Università dell'Alberta hanno 
proposto che la mirmeeoeoria sia una 
forma di mutualismo condizionato. In 
un dato momento e luogo, a seconda 
delle condizioni predominanti, l'intera- 
zione può avvenire in modo non ottima- 
le. Quando invece tutte le condizioni so- 
no in regola, i vantaggi della mirmeeo- 
eoria sia per le piante sia per le formiche 
risultano molto significativi. Essi sono 
sufficientemente importanti da rafforza- 
re in misura notevole le pressioni che 
tendono a conservare i caratteri che ren- 
dono possibile questo comportamento. 

Via via che si allunga la lista delle 
piante mirmecocore note, i biologi pos- 
sono sperare di comprendere sempre 
meglio l'importanza di questo meccani- 
smo di dispersione dei semi in tutto il 
mondo. Ulteriori studi sui benefici della 
mirmeeoeoria per le piante e le formiche 
dovrebbero anche aiutarci a chiarire i 
particolari delle interazioni mutualisti- 
che e delle loro conseguenze evolutive. 



RimiOCRÀFIÀ 

berg rolf y>, Myrmecochorous 
Piante in Australia and Their Dispersa! \ 
by Attts in «Australian Journal of Br> 
tany», 23, n. 3, giugno 1975, 

handel Steven N. , Dispersa! Ecoiogy 
of Carex pedunculata (Cyperaceae): A 
New North American Myrmecochore in 
«American Journal of Botany»,63. n, 8, 
settembre 1976. 

handel Steven N , The Competitive 
Rehtionship of Three Woodland Sedges 
and Its Bea ring on the Evolutìon ofAnt- 
- Dispersa! of Carex pedunculata in «E- 
volution», 32» n. 1, marzo 1978. 

BEATTIE ANDREW J,, The Evoiutio- 

nary Ecoiogy of Ant- Plani MutuaUsms. 
Cambridge University Press, 1985. 

FENNER m. ♦ Seed Ecohgy. Routledge, 
Chapman&Hall, Inc., 1985, 

HANZAWA FRANCES M., BEATTIE AN- 
DREW j. e CTJLVER DAVID C, Directed 
Dispersa!: Demographic Anaiysis of an 
AnhSeed Mutualisni in «American Na- 
turalista, 131, n. 1, gennaio 1988. 



Per accordi con 

la NICOLA ZANICHELLI S,p A 

siamo lieti di offrire ai lettori 

de LE SCIENZE, a prezzi speciali, 

i volumi delia collana 

NUOVI CLASSICI DELLA SCIENZA 

edizione italiana 

della "Scientific American Library" 




I FOSSILI 

E USTORIA DELLA VITA 

è George GiyfcfnfSimpson 
L 32.500 fannehcL 3&000| 

LA SCOPERTA 

DELLE PARTICELLE SUBATOMICHE 

da Steven Weiittog 

L 29-000 [anziché L 32.000) 

POTENZE DI DIECI 

diPhLiipflMisHflmswi 
L32.50G(an£chéL 36.000) 

LA DIVERSITÀ UMANA 

di khan! Uhm 

1 29.000 (anziché L 32,000) 

LA SCIENZA DEL SUONO 

dijotaS ' 

L 29.000 Mdié L 32,000) 

IL SECONDO PRINCIPIO 

di Peter W, Atkins 

L 29,000 (amkhéL 32.000} 

L'EREDITA DI EINSTEIN 

di juSisn Sdnràger 

L 31,000 Umìc&IL 34.000) 



IL SISTEMA SOLARE 

di Roman Smldwwski 

L 32300 (amiche L 36-tìOO) 

OCCHIO, CERVELLO E VISIONE 

ài Ditti E KM 

L 32,500 (anziché 136,000) 

FARMACI, DROGHE 

E CERVELLO 

iSÉnoiI Snjèr 

L 32500 (anziché L 36.000) 



Per approfittare 
di questa occasione 
utilizzare la cedola 
"ordine per libri" 
allegata alla rivista* 



LE SCIENZE S.p.A. 



La Terra tende a riscaldarsi? 

L'analisi delle registrazioni effettuate a terra e in mare nell'arco di 300 
anni conferma che il nostro pianeta si è riscaldato mediamente di mezzo 
grado Celsius, ma non è certo se questa tendenza perdurerà nel futuro 

di Philip D. Jones e Tom M, L. Wiglcy 



Idati meteorologici raccolti negli 
ultimi 100 anni fanno ritenere 
che la Terra si stia riscaldando, È 
davvero cosi? Molti fattori, dalle modi- 
fiche di progetto degli strumenti termo- 
metrici alla crescita delle «isole urbane 
di calore», possono influenzare i dati e 
dare rimpressione fittizia che sia in atto 
una tendenza al riscaldamento globale. 
E ammesso che ta temperatura sta re- 
almente aumentata negli ultimi HI) anni, 
c*è ragione di ritenere che il riscalda- 
mento avrà seguito? Secondo alcuni mo- 
delli al calcolatore i gas che intrappolano 
il calore emessi negli ultimi due secoli 
dovrebbero provocare nei prossimi 50- 
-75 anni un aumento della temperatura 
media della Terra compreso fra uno e 
quattro gradi Celsius, Questi modelli, 
però, sono semplificazioni relativamen- 
te grossolane della miriade di complessi 
processi tìsici che hanno luogo nell'at- 
mosfera e negli oceani; non possono per- 
tanto dimostrare che le emissioni di gas- 
-serra porteranno a una alterazione si- 
gnificativa del clima terrestre. 

Abbiamo di recente completato un'a- 
nalisi decennale delle tendenze globali 
della tempe rat ura, correggendo siste ma- 
ncamente i dati provenienti da osserva- 
zioni condotte a terra e in mare per eli- 
minare le possibili cause di distorsione. 
Il nostro lavoro dimostra in modo defi- 
nitivo che il clima terrestre, per quanto 
soggetto ad ampie variazioni su periodi 
pari o inferiori a 10 anni, è diventato 
in generale più caldo durante l'ultimo 
secolo. La tendenza all'aumento della 
temperatura è stata interrotta da un bre- 
ve intervallo durato all'i neirca dal 1940 
al 1970, ma da allora la curva è tornata 
a salire e non dà segni di cedimento. 

Se la tendenza al riscaldamento globa- 
le è certa, meno certe sono le cause del 
fenomeno. Per quanto il riscaldamento 
osservato sia coerente con l'effetto ser- 
ra , ci sono altri fattori, dalle eruzioni vul- 
caniche alle correnti oceaniche, che in- 
fluenzano il clima e velano il «segnale 
serra», Alcune di queste ambiguità sa- 
ranno forse risolte dai dati che verranno 



raccolti nei prossimi decenni (durante i 
quali è prevista una sostanziale intensi- 
ficazione del riscaldamento). 

Le registrazioni storiche della tempcra- 
' tura sono di importanza cruciale per 
quantificare il riscaldamento subito dai 
due emisferi da quando la Rivoluzione 
industriale ha innescato un massiccio au- 



mento nei livelli atmosferici di anidride 
carbonica e degli altri gas-serra. Sfortu- 
natamente questi dati sono di difficile 
reperibilità. Attualmente le misurazioni 
di temperatura su scala mondiale sono 
compilate dal World Weather Watch 
System, una rete di cooperazione tra ser- 
vizi meteorologici nazionali. Nei secoli 
passati, invece, le osservazioni erano re- 



gistrate soprattutto da singoli che lavo- 
ravano in modo non coordinato. 

Circa 10 anni fa, spinti dalle crescenti 
preoccupazioni in fatto di cambiamento 
del clima globale, noi e i nostri colleghi 
della Climatic Research Unii della Uni- 
versity of East Anglia avviammo un pro- 
getto per raccogliere e analizzare, una 
volta per tutte, ogni registrazione di tem- 
perai ura disponibile. In questa impresa 
fummo sostenuti dall'US Department of 
Energy e dalla collaborazione di Ray- 
mond S, Bradley dell'Università del 
Massachusetts ad Amherst e di Henry F. 
D i az de 1 V E n v i ron m e n t al Re so u rces La- 
boratory della National Oceanie and 
Atmospheric Ad ministra tion (NOAA). 

Il compilo non era semplice. Pochi di 
coloro che, nei secoli XVIII e XIX, ave- 
vano allestito reti stabili di osservazio- 
ne meteorologica potevano prevedere 
quanto i loro dati sarebbero serviti alle 
successive generazioni di scienziati per 
lo studio delle variazioni climatiche. 
Non c'è da stupirsi che queste registra- 
zioni siano frammentarie, spesso incom- 
plete e incoerenti. Ciononostante, quan- 
tificando e poi eliminando le incertezze 
nei dati, siamo riusciti a ricostruire in 
modo abbastanza preciso l'andamento 
del clima negli ultimi 300 anni circa, da 



quando hanno avuto inizio le registrazio- 
ni meteorologiche strumentali. 

Le registrazioni più antiche sono oggi 
* di scarsa utilità in quanto coprono 
solo TEuropa occidentale. Inoltre, molti 
dei primi dati relativi alla temperatura 
sono andati perduti o sopravvivono solo 
in forma sommaria. Ancor più si sarebbe 
perso se non fosse stato per gli sforzi di 
Heinrich Wilhelm Dove, un meteorolo- 
go tedesco che raccolse, soprattutto per 
corrispondenza, il maggior numero di 
dati possibile. 

Le compilazioni di Dove sono di gran* 
de importanza, e le sue analisi dei dati 
erano molto avanzate per i primi decenni 
dell'Ottocento, Purtroppo oggi hanno 
un valore limitato perché non includono 
le zone interne di Africa. Asia, America 
Meridionale e Australia. A partire dal 
1850, i vari enti meteorologici hanno la- 
vorato congiuntamente per raccogliere e 
archiviare i dati sulla temperatura; le re- 
gistrazioni successive a quella data sono 
quindi molto più complete. 

Gradualmente si sono istituite stazioni 
di osservazione in quasi tutto il resto del 
mondo : alla fine degli anni cinquanta la 
rete ha raggiunto anche l'Antartide. (Vi 
sono state pause significative in questa 



EMISFERO BORe 4ie 



^ISFERO AUSTRI 




diffusione; il congelamento del mercu- 
rio, per esempio, ha ostacolato le prime 
misurazioni nelle zone settent rionali del- 
l'Unione Sovietica e del Canada.) 

I tentativi moderni per determinare le 
tendenze globali della temperatura eb- 
bero inizio circa 30 anni fa. Inizialmente , 
però, il lavoro era ostacolato dalla scar- 
sità dei siti (qualche centinaio ) per i quali 
erano stati pubblicati i dati, La nostra 
ricerca ha portato alla luce più di 3000 
serie di registrazioni da analizzare, mol- 
te delle quali inedite. 

Avendo così a disposizione un ampio 
elenco, si cominciò con lo sfoltirlo* 11 
requisito fondamentale era l'omogenei- 
tà: le registrazioni di temperatura dove- 
vano riflettere solo variazioni meteoro- 
logiche giornaliere e variazioni climati- 
che di lungo termine, Le fluttuazioni at- 
tribuibili ad altre cause - come lo sposta- 
mento di una stazione di rilevamento, 
incoerenze nel calcolo delle temperature 
medie mensili oppure cambiamenti nella 
strumentazione, nei tempi di osservazio- 
ne o nelle condizioni locali - possono in- 
ficiare seriamente l'attendibilità dei dati , 
1 fattori ambientali sono la fonte più pe- 
ricolosa di disomogeneità, in quanto 
possono introdurre forti distorsioni inve- 
ce di limitarsi a ridurre la precisione 
complessiva. La crescita delle città, per 
esempio, crea isole urbane di calore che 
fanno aumentare i valori di temperatura 
misurati nelle stazioni vicine. 

Per valutare l'omogeneità, confron- 
tammo le registrazioni di ciascuna sta- 
zione con quelle di stazioni distanti da 
poche decine a qualche centinaio di chi- 
lometri. Salti o tendenze registrati da 
una stazione ma non dalle altre sono in 
genere segno di disomogeneità. Il proce- 
dimento di omogeneizzazione funziona 
adeguatamente salvo che in quelle regio- 
ni in cui le stazioni più vicine distano tra 
loro più di qualche centinaio di chilome- 
tri o in cui tutte le stazioni sono influen- 
zate da fattori correlati, come per esem- 



VAfilAZlONI DI TEMPERATURA 



1,5 - 1 -0,5 0,5 1 1,5 2 



GRADI CELSIUS 



DATI 
INSUFFICIENTI 



La tendenza al riscaldarne rito, come indica» 
no i dati raccolti tra il 1967 e il 1986, varia 
nel mondo da resinile ;i regioni'. Tanto nel- 
r emisfero boreale {pagina a fronte) quanto 
in quello australe iqui accanto] la maggior 
parte delle regioni si È riscaldata, a volte 
ma rea la niente, ma un piccolo numero * so* 
prattulto nelle aree settentrionali del Faci* 
fico e dell'Atlantico - si è raffreddato, Se te 
previsioni sono esatte, il riscaldamento del 
globo si accentuerà nei prossimi decenni. 



68 LE scienze n. 266, ottobre 1990 



LE SCIENZE n. 266, ottobre 1990 69 






A 



•r&rfW 







- • 






La variabilità dd territorio influisce sulla lettura delle temperature sul clima delle regioni circostanti. Oggi Spagina a fronte), le ìsole 
producendo tendenze spurie. Nel XIX secolo (qui sopra) k città e- urbane di calore influenzano direttamente il clima, alzando arlili- 
r ; i n o i n gè nere re lattv a men te picco le e ave v ano quindi scarso effetto ci osa men te la t em pera tura m i su rat a dal I e stazioni meteo rologìc he 







v.^>7fifffflllllllilJiMllM!i 



vicine. L'installa/Jone delle stazioni negli aeroporti può invece dar sono diventate più grandi, la lettura della temperatura atmosferica 
luogo a tendenze apparenti in senso opposto. Anche l 'attendibili- è stata effettuala più lontano dalla superficie dell'oceano (dove 
tà dei dati presi in mare e cambiata nel tempo. Via via che le navi l'aria è più caldai, creando una falsa tendenza al raffreddamento. 



pio analoghi tassi di crescita urbana. 

Sulla base di questi confronti, abbia- 
mo convalidato i dati di alcune stazioni , 
ad altri abbiamo applicato adeguati fat- 
tori di correzione, e infine ne abbiamo 
eliminato circa il 10 per cento per l'im- 
possibilità di correggerli in modo sicuro. 
Abbiamo anche escluso alcune stazioni 
che avevano cessato prima del 1950 di 
raccogliere dati. La base di dati risultan- 
te comprendeva così 1584 stazioni del- 
l'emisfero boreale (delle 2666 registra- 
zioni iniziali) e 293 dell* emisfero australe 
(delle 610 iniziali). 

Partendo dai dati di queste stazioni. 
abbiamo dovuto calcolare le temperatu- 
re medie regionali e quelle relative agli 
emisferi, compito più difficile di quanto 
possa sembrare. Una grossa fonie di er- 
rore è il ricambio delle stazioni: col pas- 
sare del tempo ne sorgono di nuove e 
altre vengono eliminate. Se per esempio 
stazioni poste in luoghi relativamente 
più caldi (come le valli) vanno a sostitui- 
re altre situate in luoghi più freddi (come 
i fianchi di una collina), ovviamente 
sembrerà di notare una tendenza com- 
plessiva all'aumento di temperatura. 

Il modo più semplice per eliminare 
queste tendenze spurie consiste nelle- 
sprimere la temperatura di tutte le sta- 
zioni in termini dì deviazione dalle pro- 
prie medie in un periodo di riferimento 
(dal 1950 al 1970) per il quaìe siano di- 
sponibili dati globali attendibili. (Per al- 
cune stazioni ìe cui registrazioni non co- 
privano il periodo di riferimento, le me* 
die furono calcolate sulla base di quelle 
delle stazioni vicine.) 

Elaborammo poi i dati delle varie sta- 



zioni per produrre medie di area, ossia 
la temperatura media per ciascun punto 
di una griglia di cinque gradi di lat itudinc 
per 10 gradi di longitudine (circa 550 per 
1KHJ chilometri all'equatore). Per alcu- 
ne aree comprendenti diverse stazioni 
facemmo La media dei dati per arrivare 
al valore di un unico punto della griglia; 
in altre aree la media si basava su un'u- 
nica registrazione. 1 valori ottenuti ser- 
virono infine per arrivare alle tempera- 
ture medie di ciascun emisfero- (Questo 
metodo elimina le distorsioni prodotte 
nella media emisferica dalle aree con 
molte stazioni di rilevamento.) 

1 nostri calcoli diedero due risultati 
immediati: in primo luogo, era chiaro 
che il clima del globo varia considerevol- 
mente di anno in anno; in secondo luo- 
go, avevamo la conferma di una tenden- 
za complessiva al riscaldamento pari a 
mezzo grado dalla fine del XIX secolo. 

Nonostante i nostri sforzi per garanti- 
re l'omogeneità dei dati analizzati, 
rimangono molti interrogativi sulla loro 
attendibilità. Le prime medie, stilate a 
partire da un insieme molto più piccolo 
di stazioni, sono comparabili con quelle 
di epoca più recente? Siamo sicuri di 
aver eliminato le distorsioni assodate al 
riscaldamento urbano? E infine, fino a 
che punto temperature prese sulla terra- 
ferma rappresentano il clima di un pia- 
neta coperto per due terzi dagli oceani? 
Per stabilire se la scarsità di registra- 
zioni più antiche rendesse inattendibili le 
medie relative al XIX secolo, abbiamo 
compilato medie corrette per un sottin- 
sieme di stazioni, cosi da riprodurre la 



copertura più limitata del secolo scorso. 
L'entità delle discrepanze tra le medie 
del sottinsieme e i valori reali fa ritenere 
che le stime della temperatura anteriori 
al 1880 abbiano una precisione pari a so- 
lo la metà circa di quelle relative agli 
anni successivi al 1920. Gli stessi datL 
però, mostrano che le stime della tem- 
peratura media sul periodo di un decen- 
nio - più importanti al fine di stabilire 
tendenze di lungo termine - sono assai 
precise, Ci sono dati sufficienti per indi* 
viduare le medie decennali con uno scar- 
to inferiore a 0, 1 gradi Celsius a partire 
dal 1850 nell'emisfero boreale e dal 1880 
nell'emisfero australe. 

Per controllare, poi, che t nostri me- 
todi eliminassero le distorsioni dovu- 
te alle isole urbane di calore, confron- 
tammo le nostre medie annue per tutti 
gli Stati Uniti con quelle calcolate da 
Thomas R, Karl, del National Climatic 
Data Center di Ashevilìe (Nonh Caroli- 
na), utilizzando dati registrati soprattut- 
to in aree rurali, I nostri dati relativi agli 
Stali Uniti mostrano, rispetto a quelli dì 
KarL un riscaldamento superiore di solo 
un decimo circa di grado Celsius, il che 
dimostra chiaramente L efficacia della 
nostra accurata opera di cernita per l'e- 
liminazione delle distorsioni urbane. 

Per quanto il decimo di grado in più 
potesse indicare una lieve distorsione 
dovuta ai calore urbano, poteva dipen- 
dere anche da altri fattori. Accurati con- 
fronti dei nostri dati con registrazioni in 
aree rurali provenienti da Unione Sovie- 
tica, Cina orientale e Australia orientale 
mostrano un eccesso di riscaldamento di 
soli 0-0,05 gradì Celsius per secolo, il che 



indica che fattori diversi dal calore urba- 
no possono essere almeno parzialmente 
responsabili delle differenze Ira le nostre 
medie e quelle di Karl. 

Le misurazioni di temperatura di cui 
' abbiamo parlato finora riguardano 
tutte le terre emerse, ossia solo un terzo 
circa della superficie terrestre. Ci sono 
però motivi per ritenere che i dati presi 
a terra diano buone stime delle fluttua- 
zioni dì temperatura nei due emisferi, 
per lo meno su perìodi di decenni e di 
secoli. Gli strati superiori degli oceani 
hanno una capacità termica molto mag- 
giore di quella dell'atmosfera o del sot- 
tile strato di crosta terrestre interessato 
dalle variazioni termiche nell'arco di un 
secolo o meno; è quindi lecito attendersi 
che le variazioni di temperatura relative 
alle terre emerse riflettano molto da vi- 
cino quelle relative agli oceani. Dato che 
i venti che soffiano dagli oceani verso 
terra e viceversa assicurano una buona 
comunicazione termica tra queste due 
parti del globo, ogni differenza tra le due 
dovrebbe rapidamente scomparire. 

Di fatto, il forte parallelismo tra le 
temperature rilevate a terra e quelle pre- 
se in mare offre l'opportunità per verifi- 
care e rafforzare l'attendibilità delle sti- 
me del riscaldamento basate solo sulle 
registrazioni effettuate a terra. A questo 
proposito, la climatologia deve molto a 
un capitano di vascello statunitense. 
Matthew Fontaine Maury. Grazie alla 
sua attività pionieristica svolta negli anni 
trenta e quaranta del secolo scorso, egli 
diede un grande contributo alla standar- 
dizzazione dei metodi di osservazione 



meteorologica in mare, compresa la mi- 
surazione della temperatura dell'acqua e 
dell'aria. Fu in gran parte per merito del 
suo lavoro che nel 1853 venne firmato a 
Bruxelles un accordo internazionale per 
la raccolta e lo scambio di osservazioni 
meteorologiche marittime. 

Da allora varie nazioni marinare - Sta- 
ti Uniti. Gran Bretagna, Francia e altre 
- hanno conservato negli archivi giornali 
di bordo con osservazioni meteorologi- 
che condotte in mare. Negli ultimi 20 
anni, l'informazione contenuta in questi 
giornali di bordo (qualcosa come 80 mi- 
lioni di osservazioni solo per quanto ri- 
guarda la temperatura superficiale del 
mare) è stata trasferita in due banche 
dati, il Comprehensive Ocean-Atmo- 
sphere Data Set compilato dalla NOA A 
e da altre agenzie statunitensi e una rac- 
colta separata a cura del Meteorologi cai 
Office britannico. 

Come le registrazioni effettuate a ter- 
ra, i dati presi in mare devono essere 
corretti per tener conto delle diverse tec- 
niche di misurazione e di altri fattori. 
Prima del 1940, la temperatura della su- 
perficie marina era rilevata calando fuori 
bordo un secchio, ritirandolo pieno d'ac- 
qua in coperta e aspettando il tempo suf- 
ficiente perché il termometro segnasse La 
temperatura. Dai primi anni quaranta, 
invece, nella maggior parte dei casi la 
misurazione della temperatura alla su- 
perficie del mare viene effettuata nelle 
condotte che prelevano l'acqua marina 
per il raffreddamento delle macchine. 
Per quanto ancor oggi si facciano molte 
misurazioni con il secchio e anche prima 
del 1940 si facessero a volte misurazioni 



interne, il passaggio da un sistema all'al- 
tro è stato abbastanza netto e repentino. 

Alcuni studi comparativi dimostrano 
che le misure prese in condotte interne 
sono di solito superiori di 0,3-0,7 gradi 
Celsius rispetto a quelle effettuate con 
un secchio in tela non isolato - un incre- 
mento approssimativamente analogo al 
riscaldamento riscontrato nei dati presi 
a terra. Questa disomogeneità va dun- 
que corretta. I giornali di bordo, però, 
specificano solo dagli anni settanta se le 
misure sono state prese con il sistema del 
secchio o con quello delle condotte ìn- 
terne T cosicché le correzioni sono a volte 
problematiche. 

Inoltre, non tutte le misurazioni effet- 
tuate con il secchio sono uguali, I secchi 
bagnati si raffreddano per evaporazione 
mentre vengono sollevati in coperta. 
L'entità esatta del raffreddamento di- 
pende dalle condizioni meteorologiche e 
dalle caratteristiche isolanti del secchio. 
Nel tentativo di standardizzare le letture 
di temperatura, l'accordo di Bruxelles 
del 1853 specificava l'uso di secchi di le- 
gno, che hanno buone qualità isolanti, 
ma le flotte del XIX secolo continuarono 
a servirsi di secchi in tela, latta e altri 
materiali. Fra il 1900eil 1940 la maggior 
parte delle navi era fornita di secchi in 
tela, che isolano poco e consentono al- 
l'acqua di raffreddarsi sensibilmente nel 
tragitto dalla raccolta alla misurazione. 
I secchi usati a partire dalla seconda 
guerra mondiale sono in plastica e ade- 
guatamente isolati: le loro letture con- 
cordano con quelle fatte nelle condotte. 

Anche le misurazioni della tempera- 
tura atmosferica effettuate in mare sono 



70 le scie\ze n. 266, ottobre 1990 



LE scienze n. 266, ottobre 1 990 71 



soggette a problemi di omogeneità. Il 
più grave è dato dall'aumento, nel corso 
del tempo, delle dimensioni medie delle 
navi e di conseguenza dell'altezza del 
ponte (e quindi anche del termometro) 
rispetto al livello del mare. Dì norma, la 
temperatura dell'aria diminuisce rapida- 
mente con la quota, e questa maggiore 
altezza del ponte delle navi dovrebbe 
produrre una tendenza spuria al raffred- 
damento . Inoltre, è quasi impossibile ac- 
certare se su talune navi i termometri 
siano stati esposti direttamente al sole o 
collocati in prossimità di strutture calde. 

Nelle registrazioni effettuate durante 
la seconda guerra mondiale si possono 
trovare esempi classici di diverse eause 
di disomogeneità. In quel periodo la 
maggior parte dei termometri veniva 
portata sulla plancia della nave, dove le 
letture potevano avvenire più al sicuro 
(ma dove la stessa struttura calda della 
nave alterava la temperatura atmosferi- 
ca), Inoltre la grande maggioranza delle 
letture era effettuata di giorno, dato che 
era proibito accendere una luce di notte 
per leggere il termometro. Ne risulta 
che le temperature registrate durante la 
guerra sono sistematicamente superiori 
di circa un grado a quelle degli anni im- 
mediatamente precedenti o successivi. 

Nelle nostre prime analisi correggeva- 
mo i dati marini confrontando le regi- 



strazioni fatte in mare in prossimità della 
terra con osservazioni effettuate nelle 
isole o nelle zone costiere. Attribuivamo 
le differenze tra temperature marine e 
terrestri alle disomogeneità delle misu- 
razioni fatte in mare e ricavavamo fattori 
di correzione facendo la media di queste 
differenze per molte regioni. Benché 
questo metodo parta dal presupposto 
che i dati presi a terra siano omogenei, 
le correzioni a cui porta hanno un eleva- 
to grado di coerenza, IL necessario cal- 
colo della media* però, limita la tecnica 
solo a correzioni dei dati medi annui re* 
tarivi a un emisfero e non a medie locali 
odi scala mensile. 

Abbiamo allora iniziato ad adottare 
una tecnica di correzione più raffinata, 
elaborata da Chris K. Folland e David 
E, Parker del Meteorologica! Office bri- 
tannico, con la quale le misurazioni più 
antiche vengono modificate per tenere 
conto del raffreddamento per evapora- 
zione dei secchi. L'entità del raffredda- 
mento dipende da due fattori: le condi- 
zioni meteorologiche e il tempo di espo- 
sizione che intercorre tra il momento in 
cui il secchio viene portalo in coperta e 
il momento in cui viene misurata la tem- 
peratura. Mentre le condizioni meteoro- 
logiche prevalenti dipendono dal perio- 
do de iranno e dal luogo in cui viene ese- 
guita la misurazione, il tempo di esposi- 



zione è di solito ignoto e se ne deve fare 
una stima a partire dai dati. 

Per stimare il tempo di esposizione, 
esprimiamo le temperature della super- 
ficie marina per un certo mese in termini 
della loro deviazione dalla media per 
quei mese nel periodo di riferimento 
1950-1970- Dato che i cicli stagionali del- 
la temperatura degli oceani sono rimasti 
relativamente costanti negli ultimi 100 
anni, queste deviazioni non dovrebbero 
evidenziare andamenti estate-inverno ri- 
conoscibili i la differenza tra le tempera- 
ture del dicembre 1890 e la media del 
mese di dicembre del periodo di riferi- 
mento, per esempio, non dovrebbe es- 
sere né superiore né inferiore alla diffe- 
renza tra le temperature del giugno 1890 
e la media del mese di giugno deFperiodo 
dì riferimento, Qualsiasi andamento sta- 
gionale dei dati può essere attribuito ai 
secchi, i quali si raffreddano di più o di 
meno a seconda del periodo dell'anno. 
Dalla comparsa di un andamento stagio- 
nale, quindi, possiamo stimare il tempo 
di esposizione e correggere i dati. 

Le correzioni ricavate dai dati presi a 
terra e dai modelli di raffreddamento so- 
no ampiamente concordanti nel periodo 
dal 1900 al 1940, quando quasi tutte le 
navi usavano secchi in tela. L'accordo è 
ancora buono per i dati del XIX secolo 
se si suppone che la maggior parte dei 




1 dati di temperatura della superficie marina devono essere corretti 
per tener conto della tecnica di misurazione. Prima del 1940 le 
letture erano effettuate calando un secchio e portando l'acqua in 
coperta {qui saprai* In seguito, i termometri sono stati per lo più 



collocati nelle condotte di immissione dell'acqua destinata al raf- 
freddamento delle macchine. Dal momento che I "acqua si raffred- 
da per evaporazione, le letture fatte con il metodo del secchio pos- 
sono anche essere sistematicamente inferiori di 0,7 gradi Celsius. 



prelievi venisse eseguita con secchi in le- 
gno. Se invece si suppone che venissero 
usati secchi in tela, le medie relative agli 
emisferi dei dati presi in mare sono coe- 
rentemente di circa 0,2 gradi Celsius su- 
periori alle medie dei dati presi a terra. 
Comunque, i confronti complessivi 
tra dati presi a terra e in mare dimostra- 
no un notevole parallelismo. Anche su 
scala temporale annua. le medie emisfe- 
riche relative" alle terre emerse e agli 
oceani presentano una forte correlazio- 
ne, e per fluttuazioni di più lungo perio- 
do le due medie sono in accordo quasi 
totale. Il permanere di incertezze va ad- 
debitato alla insufficiente copertura glo- 
bale. In alcune aree, in particolare nelle 
parti meridionali degli oceani, ancora 
oggi le misurazioni sono scarse. I risul- 
tati di recenti rilevamenti da satellite, 
però, fanno ritenere che una copertu- 
ra incompleta non costituisca un se- 
rio problema. Roy W. Spencer della 
NOAA e John R. Christy deirUniversi- 
tà dell'Alabama hanno elaborato stime 
della tempe ratura per il periodo dal 1979 
al 1988 partendo da dati presi dai satel- 
liti: le loro stime concordano fortemente 
con le nostre serie combinate di dati pre- 
si a terra e in mare. 

Dopo i 10 anni passati a rintracciare 
dati di temperatura e a correggerli 
per eliminare possibili cause di errore, 
possiamo affermare in modo inequivo- 
cabile che nel corso dell'ultimo secolo 
la temperatura del globo è aumentata. 
Rimangono, però, molti interrogativi: 
quanto è forte la tendenza al riscalda- 
mento? Qual è la sua causa? È collegata 
all'effetto serra, e, se si, perché è inter- 
rotta da un periodo di raffreddamento? 
E quanto è significativo il fatto che il 
L9o7 e il 1988 siano stati Ì due anni più 
caldi tra quelli per i quali esistono dati? 

A molte di queste domande si potrà 
dare una risposta definitiva solo con de- 
cenni di ulteriore raccolta di dati. Anche 
senza quei dati, comunque, gli attuali 
modelli di variazione del clima possono 
servire a una parziale spiegazione dei fe- 
nomeni, Il cambiamento del clima è de- 
terminato da fattori sia interni sia ester- 
ni; tra quelli interni si possono annove- 
rare i cambiamenti della albedo planeta- 
ria (dovuti alle fluttuazioni naturali della 
copertura nuvolosa o delle caratteristi- 
che superficiali) e degli andamenti della 
circolazione atmosferica od oceanica. 
Dato che l'andamento della circolazione 
atmosferica determina i flussi orizzonta- 
le e verticale dì calore attraverso l'atmo- 
sfera, esso influenza il modo in cui il ca- 
lore è sottratto alle terre emerse o agli 
oceani e a essi restituito. L'andamento 
della circolazione oceanica ha una forte 
influenza sulla temperatura degli strati 
bassi dell'atmosfera e sul tasso di scam- 
bio di calore ira oceani e atmosfera. Le 
fluttuazioni di entrambi gli andamenti 
possono portare a fluttuazioni di lungo 
termine della temperatura. 

Tra i fattori esterni che influenzano il 




| I I M f 1 I I | I I I I 
1925 1950 1975 2000 

La variabilità climatica è evidente nelle registrazioni storiche delle medie annue e decennali 
della temperatura relative alle aree emerse e u quelle oceaniche dell'emisfero boreale {in 
aitai, di quello australe {ai centra) e del mondo intero Un bassa). In lutti e tre i grafici, 
però, è evidente una tendenza della lem pera tura verso l'alto; anche gli anni più freddi 
dell'ultimo decennio sono stati più ealdi di tutti gli anni del secolo scorso, salvo rari casi. 



clima ve ne sono di naturali, quali la va- 
riazione di luminosità del Sole, e altri 
che possono essere o naturali o artificia- 
li. Per esempio, cambiamenti nella per- 
centuale di radiazione di piccola lun- 
ghezza d T onda che raggiunge la troposfe- 
ra {lo strato dì atmosfera interessato dai 
fenomeni meteorologici) possono deri* 
vare da un accumulo di emissioni indu- 
striali o dairimmissione naturale nella 
stratosfera di polvere e solfati a causa di 
eruzioni vulcaniche . oppure da entrambi 
i fattori. Le emissioni industriali posso- 



no influenzare il clima anche indiretta- 
mente, modificando falbedo delle nubi. 
Concentrazioni sempre maggiori di gas- 
-serra, a loro volta, possono incidere sul 
clima modificando T assorbimento no Ila 
troposfera di radiazione di grande lun- 
ghezza d onda in uscita. 

La maggior parte dei cambiamenti cli- 
' malici da un anno all'altro è dovuta 
a fattori interni che hanno a che fare con 
la circolazione dell'atmosfera. Su scale 
temporali più lunghe - da due a otto anni 



72 LE SCIENZE n. 266. ottobre 1990 



le scienze n, 266, ottobre 1990 73 



- variazioni nella circolazione verticale 
degli oceani e nella temperatura della 
superficie marina portano a cambiamen- 
ti climatici. Per esempio, il fenomeno di 
El Nino (che interrompe l'andamento 
predominante dei venti superficiali di le- 
vante, dei venti occidentali di alta quota 
e della risalita di acqua fredda nel Paci- 
fico orientale) porta a un aumento su 
scala mondiale delie tempeste e a una 
temporanea diminuzione della tempera- 
tura media del globo. In effetti, la ten- 
denza al riscaldamento degli ultimi anni 
ottanta risulta ancor più significativa una 
volta corretta per tener conto di Eì Nino: 
il 1989 diventa Tanno più caldo mai re* 
gistrato, e il 1988 e 1987 sono rispettiva- 
mente secondo e terzo. 

Su scale temporali pari o superiori ai 
decenni ci si può attendere una variazio- 
ne climatica notevole come risultato del- 
la grande inerzia termica degli oceani, 
che interagisce con fluttuazioni di breve 
periodo e accentua quelle dì scala tem- 
porale più lunga. L'effetto dell'inerzia 
termica degli oceani può essere stimato 
forzando, con un disturbo casuale, un 
adeguato modello climatico a riprodurre 
le variazioni ad alta frequenza (annuale) 
della temperatura media globale, 

Ne risulta che nel corso di un secolo le 
variazioni termiche a bassa frequenza 
possono arrivare a 0,2-0,3 gradi Celsius. 
In altri termini, anche il 50 per cento 
della tendenza osservata al riscaldamen- 
to potrebbe essere attribuito a una flut- 
tuazione interna naturale. Un'interpre- 
tazione altrettanto plausibile, però, è 



che un riscaldamento molto superiore 
(0,7-0,8 gradi Celsius) sia parzialmente 
compensato da una fluttuazione di raf- 
freddamento di origine interna. 

Il clima della Terra dipende anche da 
fattori esterni, uno dei quali è la variabi- 
lità del Sole. Recenti osservazioni da sa- 
tellite hanno confermato che remissione 
solare varia dello 0,1 per cento circa in 
concomitanza con il ciclo undecennale 
delle macchie solari - una variazione di 
circa 11.24 watt per metro quadrato nella 
radiazione che raggiunge l'alta atmosfe- 
ra. Se il sistema climatico potesse rispon- 
dere immediatamente alla variazione 
dell'emissione solare il globo si riscalde- 
rebbe (o raffredderebbe) in misura com- 
presa tra 0,08 e 0.24 gradi Celsius nel 
corso del ciclo delle macchie solari. L'i- 
nerzia termica degli oceani impedisce 
una risposta così rapida e l'effettiva va- 
riazione termica globale è probabilmen- 
te inferiore a 0,03 gradi Celsius. 

È stata avanzata l'ipotesi che la lumi- 
nosità! del Sole possa variare in misura 
maggiore su scale temporali più lunghe. 
Periodi prolungati di scarsa attività delle 
macchie solari, come i minimi di Mann* 
der. Spòrer e WoJf (presentatisi, rispet- 
tivamente, nei periodi 1645-1715, 1450- 
-1550 e 1280-1350) sono correlati a fa- 
si di esteso avanzamento dei ghiacciai 
montani (l'ultimo fu la «piccola età gla- 
ciale», durata approssimativamente dal- 
la metà del XVI alla metà del XVI 11 se- 
colo). Si è ipotizzato che l'emissione so- 
lare sia diminuita dello 0,2-0,6 per cento 
durante questi eventi e che questa dimì- 




1860 



2000 



Le fluttuazioni naturali dei valori di temperatura possono mascherare il riscaldamento 
globale. Qui le temperature sono corrette per tener conto di El Nino, uno sconvolgimento 
delle consuete condizioni meteorologiche del Pacifico che fa abbassare la temperatura 
media della Terra, Anche altri eventi naturali, come le eruzioni vulcaniche (qui rappre- 
sentate da trattini aggiunti nella scala degli anni), possono avere effetti a breve termine di 
raffreddamento del clima e quindi nascondere temporaneamente il riscaldamento globale, 



nuzione sia stata responsahile dei cam- 
biamenti climatici. Dalla fine del mim- 
mo di Maunder, comunque, non è stato 
osservato alcun periodo prolungato di 
anomala attività delle macchie solari. 

Anche le modificazioni del raggio del 
Sole, che aumenta e diminuisce con un 
ciclo dì circa SO anni, possono influenza- 
re la luminosità, ma quanto sia forte il 
legame tra raggio e luminosità non è 
chiaro, L'effetto potrebbe essere signifi- 
cativo o trascurabile, Le osservazioni da 
satellite del prossimo decennio dovreb- 
bero risolvere questi duhbn 

Allo stadio attuale delle conoscenze, 
l'influenza del Sole sulle tendenze termi- 
che del globo negli ultimi 100 anni circa 
è incerta, ma sembra che sia comunque 
piccola. Anche nelle speculazioni più ar- 
dite si prendono in considerazione feno- 
meni i cui effetti sono insignificanti a 
confronto delle emissioni di gas-seri ra 
L'entità più probabile della diminuzione 
di luminosità responsabile della piccola 
età glaciale, anche se molto superiore a 
qualsiasi variazione osservata in tempi 
recenti , è solo di un watt per metro qua- 
drato, equivalente a circa il 40 per cento 
del cambiamento avvenuto sinora per 
effetto serra. 

Gli effetti dell'attività vulcanica sul 
cambiamento del clima sono me- 
glio definiti, almeno nel breve periodo. 
Le eruzioni vulcaniche che immettono 
grandi quantità di polvere e di aerosol di 
solfati nella stratosfera possono provo* 
care un significativo raffreddamento a 
breve termine. Pare, per esempio, che 
nel 1883 l'eruzione del Krakatoa, vicino 
a Giava. abbia raffreddato gli strati bassi 
dell'atmosfera di qualche decimo di gra- 
do Celsius. L'effetto ebbe inizio pochi 
mesi dopo l'eruzione e rimase misurabile 
per circa due anni. L'eruzione dell'A- 
gung a Bali nel 1963, sebbene sia stata 
meno violenta e abbia immesso meno 
polvere nella stratosfera, ha prodotto 
grandi quantità di anidride solforosa e ha 
avuto un effetto analogo sui clima, 

L'azione a lungo termine di queste 
eruzioni è molto più dubbia. Per quanto 
sembri probabile che gli aerosol vulcani- 
ci precipitino dalla stratosfera nel giro di 
pochi anni, si potrebbe ritenere che l'i- 
nerzia termica degli oceani moduli gli ef- 
fetti delle eruzioni in modo tale da dare 
luogo a effetti climatici di lungo termine, 
Si potrebbe, per esempio, attribuire par- 
te del riscaldamento che ha avuto luogo 
tra il 1920 e il 1940 all'assenza di grandi 
eruzioni in quel periodo. 

Non esistono dati continuativi sulle 
concentrazioni nella stratosfera di aero- 
sol vulcanici - in particolare solfati - ed è 
quindi impossibile fare una stima atten- 
dibile del loro effetto a lungo termine sul 
clima, Anche se ci sono numerosi dati 
collaterali relativi, per esempio, alle eru- 
zioni, alla trasparenza atmosferica e alle 
concentrazioni di solfati neUe carote di 
ghiaccio della Groenlandia e dell' Antar- 
tide, le stime ricavale da queste fonti non 



sono recìprocamente coerenti. È diffici- 
le, quindi, trarre conclusioni inoppugna- 
bili a proposito dell'influenza dell'attivi- 
tà vulcanica sul cambiamento del clima 
a lungo termine. 

Z" 1 he cosa si può dire allora dell'effetto 
^ serra? Almeno in questo caso esi- 
stono dati validi che documentano le va- 
riazioni della concentrazione di gas-ser- 
ra nel corso degli ultimi secoli. Dal 1765 
i livelli di anidride carbonica atmosferica 
sono aumentati da circa 280 pani per 
milione (ppm) a più di 350 ppm. La con- 
centrazione di metano è più che raddop- 
piata, da SUO parti per miliardo (ppM) a 
1700, e il protossido d'azoto è aumentato 
di circa il 10 per cento, da 285 ppM a 3 10. 
Negli ultimi 30 anni, la concentrazione 
di clorofluorocarburi è passata da una 
quantità sostanzialmente nulla a una 
parte per miliardo. 

Alcuni modelli elaborati al calcola- 
tore prevedono che il cambiamento del- 
l' equilibrio radiati vo globale provocato 
dall'aumento dei gas-serra è pressappo* 
co equivalente a un aumento dell'uno 
per cento di luminosità del Sole. Le va- 
riazioni di livello dei gas-serra che si so- 
no già verificate dovrebbero finire per 
provocare un incremento della tempera- 
tura media del globo compreso tra 0,8 e 
2,6 gradi Celsius (l'incertezza è attribui- 
bile al fatto che, nella risposta del clima 
alle pressioni esterne, agiscono diversi 
meccanismi di retroazione non ancora 
chiariti). 

L'inerzia termica degli oceani, co- 
munque, impedisce al clima di reagire 
immediatamente alla pressione dell'ef- 
fetto serra e ha ridotto il riscaldamento 
prevedibile durante gli ultimi 100 anni a 
circa 0,5-1,3 gradi Celsius. Il riscalda- 
mento osservato, pari a circa 0,5 gradi 
Celsius, è quindi appena coerente con 
quello che ci si poteva attendere a causa 
dell'effetto serra. 

La coerenza tra le tendenze storiche al 
riscaldamento e le previsioni dei modelli 
de 11 1 effetto serra non significa però che 
quest'ultimo sia stato individuato in mo- 
do definitivo o che sia relativamente pic- 
colo. Data l'entità della variabilità cli- 
matica naturale e degli altri fattori ester- 
ni che possono influenzare il clima, il 
riscaldamento osservato potrebbe essere 
ancora attribuibile a fattori diversi dal- 
l'effetto serra , oppu re , naturalmente, un 
più sostanzioso riscaldamento per effet- 
to serra avrebbe potuto essere controbi- 
lanciato da altre fluttuazioni climatiche, 

Molte caratteristiche delle registrazio- 
ni storiche della temperatura, in realtà, 
sembrano in contrasto con l'ipotesi dei- 
Teff etto serra. Tra il 1920 e il 194(). la 
Terra si è riscaldata più rapidamente di 
quanto vorrebbero i modelli dell'effetto 
serra, e tra il 1940 e il 1970 si è raffred- 
data benché la concentrazione di gas- 
-serra fosse in rapida crescita, Inoltre, 
anche i dati relativi ai due emisferi sono 
in contrasto con quanto previsto. Dato 
che l'emisfero australe ha più oceani di 



3,5 



2.5 



1.5 



Il campo di variazione del rlscakiamento 
globale previsto dai vari modelli ai calcolatore 
[in giallo} coincide grosso modo con le 
tendenze storiche. Tutti I modelli prevedono, 
per i prossimi decenni, u n'accelera z Ione 
significativa dei processo di riscaldamento. 








200C 



— I 

2025 2050 



quello boreale, dovrebbe riscaldarsi più 
lentamente; invece, l'emisfero australe è 
risultato leggermente in testa nella corsa 
iil riscaldamento, Queste discrepanze si 
possono risolvere almeno m modo qua- 
litativo: il rapido riscaldamento della 
prima parte del XX secolo potrebbe es- 
sere dipeso da fattori interni o in parte 
dalla diminuzione dell'attività vulcanica 
o da variazioni del remissione solare, 
mentre il raffreddamento tra il 1940 e i 
primi unni settanta potrebbe essere sem- 
plicemente il risultato della variabilità 
naturale che ha ripreso il sopravvento 
sull'effetto serra. 

La maggior parte dei dubbi che circon- 
' da le cause della recente variazione 
climatica non sarà mai risolta perche 
mancano i necessari dati storici. Di con- 
seguenza è finora impossibile arrivare a 
una chiara e precisa interpretazione del- 
l'innegabile riscaldamento su scala glo- 
bale verificatosi in questo secolo. 

11 riscaldamento osservato e all'estre- 
mo inferiore dell'intervallo previsto dai 
modelli dell'effetto serra, e questo può 
voler dire che l'effetto serra è inferiore 
a quanto previsto dagli attuali modelli. 
È anche possibile, però» che l'effetto ser- 
ra sia più forte di quanto indicano i mo- 
delli e che, semplicemente, esso sia stato 
in parte controbilanciato da variazioni 
climatiche naturali o da altri fattori di 
origine umana, 

1 progressi nell'elaborazione di mo- 
delli validi e i dati che verranno raccolti 
nei prossimi decenni ridurranno le incer- 
tezze associate all'effetto serra e miglio- 
reranno la previsione del futuro cambia- 
mento del clima, Nel frattempo, però, i 
tentativi di spiegare le variazioni della 
temperatura media dei globo verificatesi 
nel passato sono destinati al fallimento 
per la scarsità di informazioni sulle cau- 



se della variabilità climatica naturale. 
Si tratta ovviamente di una situazione 
insoddisfacente per quanto riguarda i ri- 
svolti politici» ma l'incertezza non deve 
giustificare ritardi nella formulazione e 
nell'avvio di iniziative politiche volte a 
contenere il futuro aumento di tempera- 
tura dovuto ai gas-serra. Più tempo si 
aspetterà prima dì agire, più forte sarà 
l'alterazione del clima che le generazioni 
future dovranno fronteggiare. Una poli- 
tica di inattività sarebbe giustificabile so- 
lo se gli scienziati avessero l'assoluta cer- 
tezza che l'effetto serra è trascurabile. 



BIBLIOGRAFI A 
WIGLEY T. M. L., ANGELL JAMES K. e 

JONES P. D., Antttysis ofthe Temperature 
Record in Detecting the Ctìmatic Effects 
of Inereasing Carbon Dtoxide a cura di 
M. C. MacCracken eRM. Luther, US 
Department of Energy, Carbon Dioxide 
Research Division, DOE/ER-0235, di- 
cembre 1985, 

WIGLEY T\ M. L., JONES P. D. e KELLY P. 

m., Empirical Cimate Studies: Warm 

World Scenarios and the Detection of 
Climatic Change induced hy Radiativefy 
Active Gases in The Greenhouse Effect, 
Climatic Change, and Ecosystems a cura 
di Bert Bolin, B. R. Doòs, Jiìl lager e 
Richard A. Warrick. John Wiley & 
Sons, Inc., 1986, 

JONES P. D.. WIGLEY T. M. L. e WRICÌJ1T 

P. E., Giobai Temperature Varìutions het- 
ween 1861 and Ì984 in «Nature», 322, 
n. 6078, 31 luglio 1986, 

HANSEN J. E. e LACIS A. a., Sun and 
Dusi versus the Greenhouse in «Nature», 
in stampa. 



74 LE scienze n. 266, ottobre 1990 



LE scienze n. 266, ottobre 1990 75 



SCIENZA PER IMMAGINI 



L'arte maya in pericolo 

È necessario intraprendere un'opera completa di documentazione dei 
dipinti murali maya, minacciati dalV inquinamento e dall'afflusso di 
turisti, per evitare la scomparsa definitiva dì queste preziose testimonianze 



di June Kinoshita 



Si era nell'anno 1900 quando Adda 
Catherine Breton entrò per la 
prima volta ne ir accampa mento 
della spedizione archeologica presso il 
grande centro religioso maya di Chichén 
Itza\ Infagottata in una tenuta da cavallo 
vittoriana, con il volto serio, quasi da 
fanciulla, protetto dal sole dello Yucatàn 
da un cappel lo a tesa larga f questa donna 
cinquantenne era senza dubbio una figu- 
ra fuori dal comune. Negli otto anni suc- 
cessivi ella tornò più e più volte a Chi- 
chén ltzà\ sfidando il caldo, i parassiti e 
gii intralci burocratici, per riprodurre i 
disegni e i colori dei rilievi in pietra e dei 
vivaci dipinti che ornavano le mura di 
calcare degli edifici in rovina. 

Oggi gli studiosi della civiltà maya 
hanno buone ragioni per essere ricono- 
scenti ad Adela Breton. Nei circa 80 anni 
trascorsi da quelle sue visite, molti dei 
dipinti che ella copiò con tanta cura a 
Chichén Itzà e in altri siti maya sono an- 



dati irrimediabilmente perduti. Il clima 
umido e il sole coce nte della regione me- 
soamericana hanno danneggiato grave- 
mente i colori, soprattutto l'azzurro bril- 
lante, a base di indaco, chiamato appun- 
to blu maya. Vandali e turisti hanno fat* 
to sparire molti frammenti e ciò che è 
rimasto è minacciato da alghe microsco- 
piche e dalla vegetazione. In molti casi 
gli acquerelli di Adela Breton sono tutto 
ciò che resta di queste tesiimonianze del- 
l'arte maya, I suoi dipinci sono stati do- 
nati al Peabody Museum della Harvard 
University e a! City of Bristol Museum 
and Art Gallery, in Inghilterra, che lo 
scorso inverno le ha dedicato una mostra 
per ricordarne l'opera. 

Adela Breton non fu certo in quei 
tempi Tunico personaggio eccentrico a 
mettersi in viaggio per esplorare il mon~ 
do armato di un album per disegno, ma 
si distinse fra gli altri per la rigorosa at- 
tenzione che usava prestare ai colori 



E ciò si rivela oggi tanto più significativo 
in quanto, come rileva Arthur G* Miller, 
docente di storia dell'arte presso TUni- 
versità del Maryland a College Park, le 
pitture murali maya contengono una im- 
mensa quantità di informazioni espresse 
proprio mediante i colori. 

Città splendenti di colore 

Si consideri La scena di battaglia, ora 
gravemente danneggiata, che orna la pa- 
rete meridionale del Tempio superiore 
dei giaguari a Chichén Itzà (900-1100 
d.C), Negli acquerelli di Adela Breton 
gli scudi rotondi dei combattenti appa- 
iono ornati da un bordo rosso o blu a 
indicare le forze contrapposte* 

Secondo George E, Stuart, archeolo- 
go della National Geographic Society, il 
colore era parte integrante della simbo- 
logia relativa alla visione del mondo dei 
popoli precolombiani. Ai punti cardina- 





7r 




Guerrieri dai ricchi ornamenti rendono 
omaggio a una figura mascherata, avvolta 
nelle spire di una divinità in forma di ser- 
pente piumato, in questo rilievo in pietra 
del Tempio inferiore dei giaguari a Chichén 
Ilxà \a sinistra). Adela Breton documentò 
la policromìa del rilievo, colorando ad ac- 
querello una Fotografia in bianco e tieni. V 
Chichén Itza ella eseguì anche copie a colorì 
delle scene di battaglia che si trovano sulle 
pareti interne del Tempio superiore dei gia- 
guari, di cui mostriamo (a destra) un par- 
ticolare della parete meridionale. Come 
mostra la fotog rafia {sopra) ripresa nel 
I9K4„ i dipinti sono ormai quasi scomparsi. 




li, per esempio, venivano associati colori 
specìfici: il rosso corrispondeva all'est, il 
nero all'ovest, il bianco al nord, i) giallo 
al sud e il blu-verde al centro, II colore 
delle vesti delle divinità indicava a quale 
punto cardinale esse fossero associate, 
mentre per quanto riguardava gli esseri 
umani il colore poteva esprimerne il ran- 
go oppure la provenienza. La forma de- 
gli oggetti raffigurati nelle pitture po- 
teva essere a volte ambigua, cosicché era 
il colore a permettere di distinguere, 
per esempio, fra la giada e il mais. 
Anche le sculture erano in gran pane 
dipinte, benché oggi la pietra calcarea ci 
appaia nuda; ma grazie alle pitture mu- 
rali possiamo avere un'idea di quale fos- 
se all'origine l'aspetto delle decorazioni 
scultoree. 

Non solo le sculture e i dipinti murali, 
ma le città intere dovevano essere uno 
splendore di policromie. Nel 1973 Merle 
Greene Robertson, direttrice del Pre- 
-Coiumbian Art Research Institute di 
San Francisco, iniziò un'accurata indagi- 



ne sui resti di pitture policrome a Palen* 
que. Questa città del periodo classico, 
situata nella quasi impenetrabile foresta 
pluviale ai piedi di una catena di colline 
nel Chiapas settentrionale (Messico), 
raggiunse il suo apogeo durante il regno 
di Pacai il Grande (615-683 d.C) ed è 
celebre per i delicati rilievi in stucco e le 
numerose iscrizioni geroglifiche. 

Servendosi di tavole cromatiche di ri- 
ferimento, la Robertson si diede a docu- 
mentare i resti di pitture policrome che 
un tempo ornavano gli edifici e i basso- 
rilievi. Secondo la sua ricostruzione, i 
muri erano dipinti di un rosso intenso, 
sia airinterno sia all'esterno degli edifici ; 
la carnagione degli esseri umani veniva 
rappresentata in colore rosso, quella del- 
le divinità in blu, 

Quando la Robertson diede inizio al 
suo progetto gran parte delle superfici 
dipinte si presentava ancora pulita, ma a 
partire dall'inizio degli anni ottanta que- 
ste superfici cominciarono a ricoprirsi 
progressivamente di quella «crosta ne- 




ra» che si forma quando la pietra calca- 
rea reagisce con deposizioni umide che 
contengono acidi in soluzione. Le incro- 
stazioni deturpanti finirono così con il 
coprire il poco colore rimasto. È da 
pensare che la formazione della crosta 
nera sia un effetto delle piogge acide, 
prodotte in conseguenza delle emissioni 
dei pozzi di petrolio e delle ciminiere 
industriali delle città di Coatzacoalcos 
e di Carmen, situale sulla costa del Gol- 
fo del Messico, 125 chilometri a nord di 
Palenque. 

Lo scorso anno la Robertson denun- 
ciava il pericolo costituito dalle deposi- 
zioni acide in uno studio condotto per 
conto della National Geographic So- 
ciety. Nel famoso Tempio delle iscrizioni 
di Palenque. la crosta nera si presentava 
a suo dire «così estesa e compatta che 
osservando [le iscrizioni] si aveva l'im- 
pressione di guardare una scultura nera 
e lisciai Seymour Z. Lewin, un chimico 
della New York University che ha esa- 
minato le modalità di degrado in diversi 




Il Tempio del Sole di Palenque era antica- 
mente dipinto di rosso con ematite (un os- 
sido di ferro \ e ornato di fregi policromi, co* 
me mostra questa ricostruzione eseguita da 
Merle Greene Robertson \a sinistrai. Oggi 
questo edificio del VII secolo d.C. s» staglia 
bianchissimo sullo sfondo della vegetazione 
{sotto) * Nella fotografìa qui sopra* La Ro- 
bertson confronta un campione di colore 
con le tracce dì pigmento rimanenti sulla 
guancia della regina di Palenque* Zac Kuk, 




siti maya, afferma che l'aspetto della 
crosta nera è tipico dei fenomeni di de- 
terioramento prodotti dalle deposizioni 
acide, anche se i dipinti vengono dan- 
neggiati più gravemente dai microrgani- 
smi e dalla lisciviazione dei sali che non 
dalle deposizioni acide stesse. 

Il rilevamento di Palenque a opera 
della Robertson era quasi al suo termine 
quando» nel 1982 F accadde il disastro: il 
vulcano El Chiehón, che era quiescente 
da 600 anni, entrò improvvisamente in 
attività, emettendo una densa nube di 
cenere e di goccioline di acido solforico. 
Centinaia di tonnellate di cenere corro- 
siva si riversarono su Palenque e ne sep- 
pellirono gii edifici come sotto una col- 
tre di neve. Quando iniziò ia stagione 
delle piogge la crosta nera venne aspor- 
tata, ma anche il colore scomparve; sei 
settimane dopo l'eruzione l'intero sito 
sembrava ripulito, come se fosse stato 
tirato a lucido. 

Per fortuna i rilievi eseguiti dalla 
Robertson erano ormai sufficientemen- 
te completi da permetterle di ricostrui- 
re T aspetto originario degli edifici di 
Palenque , caratterizzati da serie di vivaci 
dipinti con colori vivi e in forte contrasto 
tra loro. 

Un compito altrettanto urgente della 
ricostruzione della perduta policromia 
delle rovine è quello di costituire un cor- 
pus dei dipinti murali che si sono conser- 
vati fino a noi. Secondo gli esperti non 
sono state realizzate riproduzioni soddi- 
sfacenti neppure dei più celebri dipinti 
maya, quelli di Bonampak. L'esistenza 
di questo sito del tardo periodo classico, 
isolato e sperduto nella regione sudo- 
rientale dello Stato di Chiapas, venne 
resa nota da un esploratore inglese, Gi- 
les G. Healey, che vi fu guidato dagli 
indigeni nel 1946. 

Interventi controproducenti 

Datate intorno alfSOO d,C, le pitture 
di Bonampak ornano le pareti interne di 
un edificio in pietra a tre vani e rappre- 
sentano, con immagini realistiche e co- 
lori brillanti, una scena di battaglia, il 
suo esito sanguinoso e le celebrazioni dei 
vincitori. All'epoca della scoperta di Bo- 
nampak, era opinione diffusa tra gli stu- 
diosi che i maya, nel periodo classico, 
fossero una popolazione pacifica che 
non aveva lasciato testimonianze stori- 
che scritte. Il sito di Bonampak fece mu~ 
tare completamente questa opinione co- 
mune, rivelando che i maya erano in re- 
altà dediti alla guerra e utilizzavano ab- 
bondantemente i geroglifici per traman- 
dare eventi storici. La scoperta di questo 
silo segnò pertanto una svolta radicale 
nelle ricerche sulla civiltà maya. 

Data l'importanza dei dipinti, le loro 
precarie condizioni hanno messo in al- 
larme un gran numero di studiosi. Per un 
migliaio di anni il sito è stato coperto 
dalla fittissima foresta tropicale ed è ri- 
masto in condizioni costanti di penom- 
bra e di elevata umidità. Subito dopo la 







La fotografia riprodotta qui sopra mostra i dipìnti murali di Bonampak come apparivano 
prima delia pulitura. Le pitture erano coperte da una spessa crosta bianca di carbonato 
dì calcio e potevano essere osservate solo inumidendo te incrostazioni con acqua o chero- 
sene. Nobili dalle vesti bianche sono raffigurati nella fila superiore; so ilo dì loro, musici 
battono tamburi e scuotono sonagli per celebrare una vittoria in battaglia. Una magnìfica 
replica {sotto) dipinta da Feline Davalos per il Florida Museum of Naturai History dì 
Gaìnesville permette di osservare nei dettagli l'abbigliamento e i geroglifici maya. 




«■ir" 2dn "%rW ^9.' e» 




scoperta dei dipinti si abbatterono gli al- 
beri e si realizzarono coperture di lamie- 
ra zincata; questa «sistemazione» rende- 
va il sito caldissimo nelle ore diurne e 
freddo di notte. Negli anni sessanta si 
tentò un intervento conservativo iniet- 
tando una soluzione di silicone nelle pa- 
reti alto scopo di consolidare la superfi- 
cie dipinta, ma il silicone è stato ormai 
asportato e le pitture sono in condizioni 
peggiori di prima. Inoltre i restaura- 
tori coprirono involontariamente pane 
della superficie dipinta nel consolidare 
con matta alcune grandi fenditure nel- 
le pareti. 

Una minaccia imminente 

Alcuni anni fa si è proceduto alla pu- 
litura dei dipinti. Uno strato opaco e 
indurito di carbonato di calcio ne aveva 
ricoperto la superficie e. quando questo 
è stato rimosso, le scene sottostanti sono 
tornate alla luce in tutta la loro bellezza. 
Tuttavia * ironia detta sorte - la pulitura 
potrebbe contribuire ad accelerare la di- 
struzione dei dipinti. In effetti, essi si 
sono conservati fino a oggi proprio per* 
che il carbonato di calcio fungeva in 



Un guerriero dalla carnagione scura, splen- 
didamente ornato dì piume di uccello, scru- 
ta da un dipinto murale nel palazzo di Ca- 
ca \t la (a sinistra); una tartaruga spunta da 
un fregio in un'altra zona delta parete (tot* 
toh Si pensa che i dipinti siano sfati com- 
missionati ad artisti maya dai signori dì 
questo sito degli o!mechÌ-x ica lanca, posto 
500 chilometri a ovest del territorio maya. 




qualche modo da strato protettivo; ora 
che sono allo scoperto, risultano più 
esposti agli sbalzi di temperatura, al- 
l'umidità e ai microrganismi. Il fatto che 
i dipinti siano stati puliti senza provve- 
dere a più efficaci misure di protezione 
è causa di serie preoccupazioni per il 
loro futuro. 

Si impone pertanto La necessità di rea- 
lizzare con la massima urgenza riprodu- 
zioni accurate dei dipinti di Bonampak, 
In realtà già parecchie ne sono state 
fatte, fra cui le fotografie prese da 
Healey nel 3946, un altra serie di imma- 
gini fotografiche di Hans Ritter e quat- 
tro ricostruzioni pittoriche. Una di esse, 
una riproduzione magnificamente detta- 
gliata dei dipinti della prima stanza, fu 
realizzata intorno alla metà degli anni 
settanta da Felipe Dàvalos T per conto del 
Florida Museum of Naturai History di 
Gainesville. 

Tuttavia nessuna ricostruzione è com- 
pleta, per quanto alcune di esse - in par- 
ticolare quella di Dàvalos - si possano 
considerare ben fatte. Quest'ultima ri- 
produzione è anche Tunica in cui i gero- 
glifici siano stati resi correttamente; è 
infatti più difficile di quanto sembri im- 
parare a disegnare nello stile maya. Ade- 
la Breton espresse questo concetto m 
una lettera scritta all'insigne mayologo 
Alfred NL Tozzer: «Riprodurli [i dipinti 
maya] richiede non solo abilità artistica, 
ma anche la capacità molto diversa di 
vederli così come li vedevano gli antichi 
americani». 

In realtà non è mai stata realizzata 
alcuna riproduzione fotografica o pitto- 
rica completa dei dipinti di Bonampak. 
ma forse si potrà rimediare presto a que- 
sta lacuna. Di recente infatti Roberto 
Garda Moli, direttore dell'Istituto na- 
zionale messicano di antropologia e sto- 
ria, ha espresso interesse per un progetto 
in questo senso e alcuni studiosi ritengo- 
no che la documentazione di queste ope- 
re sia perfino più importante del loro 
restauro. 

In tutta La regione mesoamericana si 
continuano intanto a scoprire altre pit- 
ture murali. Lo scorso anno un gruppo 
di archeologi messicani ha riportato alla 
luce una scala sepolta a Cacaxtìa. un 
complesso palaziale in rovina situato 
LOO chilometri a est di Città di Messico, 
e ha scoperto due dipinti in condizioni di 
conservazione straordinarie sulle pareti 
che fiancheggiano i gradini. Insieme ad 
altri due dipinti rinvenuti a Cacaxtìa in- 
torno Eil la metà degli anni settanta, essi 
costituiscono un complesso pittorico fra 
i più significativi di tutta la regione me- 
soamericana. Secondo Ellen T. Baird 
de ir Università del Nebraska a Lincoln, 
queste pitture risalgono a un periodo 
compreso fra il 655 e T835 d.C. e sono 
dovute agli olmechi-xicalanca, una po- 
polazione che con tutta probabilità pro- 
veniva dalla costa del Golfo del Messico. 
In esse si osservano motivi tipici dell'arte 
del Messico centrale, ma resi in uno stile 
molto vicino a quello maya. 



ss 

no 



razie ai calcolatori la simulazione 

non è più Parte della menzogna, 

ma uno strumento del sapere che si affianca 

a esperimento e deduzione. 

Principi, potenzialità e limiti della 

SCIENZA DEI CALCOLATORI 

sono descritti nel nuovo atteso quaderno 

di "Le Scienze" curato da Daniele MundicL 




Sei QUADERNI all'anno 
Prezzo di copertina: L, 9000. 



In questo numero: 

Osservazioni sulV intelligenza artificiale di Gian- Carlo Rota 

Strutture di dati e algoritmi di Niklaus Wirth 

Sistemi operativi di PJ. Dennìng e R.L. Brown 

Sistemi operativi e architetture dì G, Sera zzi 

L 'automazione della sillogistica di E.G. Omodeo 

Software nella scienza e nella matematica di S. Wolfram 

Linguaggi per il sapere matematico di G. Guerrerio 

Reti per V elaborazione avanzata di R.K. Kahn 

Reti per il calcolo scientifico di Òzalp Babao|lu 

A rebitetture per i supercalcolatorì di G.C, Fox e P.C, Messina 

/ limiti fondamentali del calcolo di CH. Bennect e R. Landauer 

e per la prima volta tradotto in italiano il testamento spirituale 
del premio Nobel Richard P. Feynman: 
Simulare la fisica al calcolatore 



LE SCIENZE n. 266, ottobre 1990 



LE scienze n, 266. ottobre 1990 81 




I colori dei dipìnti murali maya svaniscono non appena vengono portati alfa luce. Due 
fotografìe dì una scena di battaglia a Caca xt la, una ripresa nel 1978 fa sinistra in atto) e 
l'altra nel 1989 (a destra in alte)* mostrano il deterioramento del «blu maya» a base di 
indaco, mentre il rosso dell'ematiti 1 è rimasto stabile. A Tulum, parti di un dipìnto so* 
no state danneggiate dai visitatori e annerite dall'inquinamento* come documentano le 
due fotografie in basso, una realizzata net 1966 (a sinistrai e Tal tra nel 1985 ia destra). 



Questa commistione di stili si verificò, 
secondo il compianto Donald Robertson 
della Tulane University, perché i signori 
di Cacaxtla affidarono F opera ad artisti 
maya; questi dipinsero nello stile della 
loro terra, ma rappresentarono glifi ca- 
ratteristici dell'altopiano messicano, in 
conformità al volere dei committenti. 
Davvero sorprendente è, nei dipinti di 
recente scoperta, la rappresentazione 
del dio del mais: pannocchie gialle re- 
canti volti umani che spuntano tra foglie 
verdi su uno stelo. 



Il Governo messicano ha provveduto 
a erigere una copertura destinata a prò* 
leggere Pioterò sito, Tuttavia moki os- 
servatori fanno notare che i dipinti sco- 
perti alla metà degli anni settanta appa- 
iono già sensibilmente sbiaditi. Per for- 
tuna ne sono state fatte copie da parte di 
un gruppo messicano, mentre le pitture 
scoperte più recentemente sono state 
completamente fotografate lo scorso in- 
verno sotto gli auspici della National 
Geographic Society. Questi dipinti sono 
in condizioni così buone che la docu- 



mentazione fotografica può essere suffi- 
ciente, ma nel caso di opere meno ben 
conservate si rende necessaria la ripro- 
duzione pittorica. Anche se a molti que- 
sto metodo potrebbe apparire superato, 
resta il fatto che l'occhio umano è in gra- 
do dì cogliere particolari che un apparec- 
chio fotografico non riuscirebbe comun- 
que a restituire. 

Nulla di romantico 

Di particolare urgenza è la documen- 
tazione di ciò che è stato scoperto, prima 
che scompaia definitivamente. Pochi, 
tuttavia, sono disposti a dedicare a que- 
sto compito il tempo e l'impegno neces- 
sari, Arthur Miller ricorda che il proprio 
lavoro sui dipinti di Tulum, un comples- 
so di epoca postclassica (XV-XVI seco- 
lo) situato a dominio del mare sulla costa 
orientale dello Yucatan, ha richiesto 
quattro anni di tempo. «Occorrono de- 
dizione, esperienza e grandissima preci- 
sione. - afferma - Non c'è nulla di roman- 
tico in tutto ciò.» 

Anche A de la Breton si sarebbe det- 
ta d'accordo. Copiare i dipinti murali 
«mette a dura prova il cervello e i nervi , 
oltre che l'occhio e la mano», si lamentò 
con un conoscente, E di fatto è possibile 
che una riproduzione compieta delle pit- 
ture di Bonampak non sia mai stata rea- 
lizzata proprio per l'incapacità da parte 
degli artisti di reggere allo sforzo neces- 
sario. Le ricostruzioni realizzate da Dà- 
valos della seconda e della terza stanza 
non sono neppure paragonabili a quella 
della prima stanza, Un'altra artista im- 
pegnata a realizzare una replica di Bo- 
nampak a Città di Messico ha iniziato 
dalla terza stanza, ma sembra essersi da- 
ta per vìnta quando si è trattato di pas- 
sare alle altre due. 

Il poter disporre di riproduzioni di 
buona qualità è sempre più importante, 
dal momento che molti siti maya sono 
seriamente minacciati dagli effetti dello 
sviluppo economico nella regione. A 
Tulum gli edifici sono anneriti dagli sca- 
richi degli autobus; la presenza dei turi- 
sti, che pure sono necessari perché ap- 
portano valuta pregiata, provoca l'innal- 
zamento dei livelli di umidità all'interno 
delle stanze in pietra e favorisce l'inva- 
sione da parte di microrganismi. I pozzi 
di petrolio e le ciminiere degli impiantì 
della Pemex, la compagnia petrolifera 
nazionale messicana, aggravano il pro- 
blema delle deposizioni acide. Di fronte 
a queste minacce, la soluzione migliore 
potrebbe essere quella di realizzare co- 
pie dei dipinti da esporre al posto degli 
originali, che andrebbero quindi colloca- 
ti in un museo. 

Anche se le opere d'arte antiche ven- 
gono protette con la massima cura pos- 
sibile, il loro degrado appare inevita- 
bile, soprattutto per quanto riguarda i 
dipinti, LAmico modo per conservare 
per il futuro queste testimonianze sem- 
bra quindi essere offerto da un completo 
e accurato lavoro di documentazione, 



82 le scienze n. 266, ottobre 1990 



L'ANGOLO 
MATEMATICO 



di Ian Stewart 



Il polinomio di Jones scioglie 
V enigma dell'universo dei nodi? 



rngresso degli artisti era ben nasco- 
sto in un angolo, all'estremità di 
/ un androne oscuro e tutto scro- 
stato. Quale contrasto con la brillante 
insegna al neon sulla facciata del teatro 
che mi aveva attirato in quel luogo mal- 
sano! No, non erano Mervin Snewt e il 
suo criceto ballerino a interessarmi (an- 
che se la povera bestiola aveva raggiunto 
una fama europea grazie al satellite TV) 
ma un cartello collocato in basso, a de- 
stra deirelenco dei ruoli secondari, dove 
delle lettere in plastica ballonzolavano 
appese a una guida metallica: 

«Matt M. Maddox, matematico». 

Ho incontrato per la prima volta Mat- 
thew Morris Maddox su un treno. È un 
mago specializzato in giochi di prestigio 
basati sulla matematica, e gli avevo pro- 
messo una visita alla prima occasione. 

Lo trovai seduto al tavolo da trucco, 
in mezzo a una decina di tazze di ciocco- 
lata vuote, mentre giocherellava con un 
grande cerchio metallico. Infilò a un dito 
un anello che sembrava del tutto norma- 
le, lo tenne insieme al cerchio nel pugno 
chiuso e con l'altra mano, e fece una 




1. Gli anelli borromei sono allacciati 
ma si separano tutti quando se ne taglia uno» 



doppia mossa di destrezza. Poi aprì il 
pugno e Fanello scivolò lungo il cerchio 
nel quale era andato a incastrarsi. 

«Mi piacerebbe tanto vedere come fa» 
dissi. 

Si girò sulla sedia: 



«L'ha appena visto.» 

«No, mi piacerebbe vedere qual è il 
trucco.» 

«Trucco? Che trucco? C'è forse un 
trucco?» 

«È evidente che non può allacciare 
due cappi chiusi e separati! Proprio lei, 
l'ultima volta che ci siamo visti, mi ha 
dimostrato che il numero di allacciamen- 
ti è un'invariante topologica.» 

«È vero. Eppure mi ha appena visto 
farlo.» 

È impossibile strappare qualche infor- 
mazione a Maddox perché è tenuto al 
segreto dalle regole dell'associazione del 
Cerchio magico. Lasciai perdere le do- 
mande e ce ne andammo a ritemprarci 
nel bar all'angolo. 

Mi ricordò che nel corso del nostro 
precedente incontro avevamo parlato 
degli anelli borromei (si veda l'illustra- 
zione i), un insieme di tre anelli allac- 
ciati che si separano quando s£ ne taglia 
uno qualsiasi (il nome deriva dalla fami- 
glia Borromeo, nel cui stemma i tre anel- 
li allacciati erano simbolo dei legami fra 
i tre rami della casata), e io avevo scom- 
messo cinque dollari che non si poteva 
mantenere la stessa proprietà con quat- 
tro anelli. 

«Non me ne sono dimenticato» dissi 
pagando il mio debito. «Ho fatto delle 
prove e ho scoperto che si può avere un 
allacciamento Borromeo con un numero 
qualsiasi di anelli; anzi, esistono diverse 
soluzioni. 

Arnaud Maes mi ha inviato tre solu- 
zioni molto eleganti, ciascuna delle quali 
vale per un numero di anelli a piacere. 

La prima è una serie di nodi piani al- 
lacciati (si veda l* parte a dell'illustrazio- 
ne 2) e la seconda è una "scala di selle" 
(parte b dell' illustrazione 2) , Ma la terza 
è veramente mozzafiato. Ha letto il mio 
articolo sulla scoperta dei diagrammi di 
Venn per n insiemi? Arnaud Maes ha 







2. Gli «n-allacciamenti» borromei di Arnaud Maes. (st) Una catena di nodi piani, (b) Una scala di selle, 
(e) Soluzione basata sui diagrammi di Venn. 



84 le scienze n. 266, ottobre 1990 






NON NODO: 1 



NODO SEMPLICE A SINISTRA: t 2 - f ♦ 1 



OTTO:f 2 -3H-1 




NODO PIANO: {t 2 -t+ 1)2 




NODO SEMPLICE A DESTRA: t* - t+ 1 
3. A leuni nodi e i loro polinomi di Alexander. 




NODO VACCAIO: (f 2 -f+ 1) 2 



trovato il modo per convertirli in allac- 
ciamenti borromei a n cappi (parte e del- 
l illustrazione 2) .» 

Maddox era molto colpito da questa 
soluzione, sorprendente e di estrema 
bellezza, che utilizza una branca della 
matematica per risolvere un problema in 
un'altra branca del tutto diversa. 

«Molto intelligente» disse. «È chiaro 
che ogni volta che si taglia un anello si 
separano tutti... Hmm! Ma come si fa a 
sapere che non si separano quando non 
viene tagliato proprio nulla?» 

«Vuole che dimostri che sono davvero 
allacciati?» 

«Proprio così.» 

«Posso benissimo dimostrarlo» dissi 
con aria di sufficienza. 

«In che modo? Non credo che possa 
farlo utilizzando i numeri di allaccia- 
menti: sono tutti pari a zero perché 
nessuna coppia, presa singolarmente, è 
allacciata.» 

«È vero. Bisogna usare qualcosa di 
meglio.» 

«Che cosa, per esempio?» 

Stavo quasi per dirgli che non glielo 
avrei rivelato; ma non voglioparlarvi per 
preterizione... 

«I polinomi di Jones» gli confessai. 
Non aveva mai sentito parlare di questa 
strana storia. 

Un allacciamento, o una catena, è un 
insieme composto da diversi cappi 

maglie in uno spazio a tre dimensioni. 

1 cappi possono essere ritorti o anche 
allacciati in modo qualsiasi (compreso 
quello che di solito si considera l'assenza 
di allacciamento). Quando c'è solo un 



cappio, l'allacciamento è chiamato no- 
do. Il problema fondamentale della teo- 
ria dei nodi è quello di distinguere un 
nodo dall'altro, di stabilire se due nodi 
sono topologicamente equivalenti, se 
cioè si possano ottenere uno dall'altro 
attraverso una serie di trasformazioni 
continue. In particolare vogliamo sco- 
prire se, qualunque sia la forma di un 
nodo, non sia in realtà «snodato», cioè 
equivalente a un «non nodo». Un modo 
per stabilirlo è trovare delle invarianti 
topologiche. Esistono numeri, o oggetti 
matematici più complessi, che non cam- 
biano quando il nodo è deformato in mo- 
do continuo; ne risulta che due nodi che 
abbiano invarianti diverse non sono mai 
equivalenti; tuttavia, nodi di uguale in- 
variante possono essere equivalenti op- 
pure non esserlo, e l'unico modo per sa- 
perlo è trovare un'equivalenza o inven- 
tare un'invariante più sensibile. 

L'invariante di nodo tipica dell'era 
pre-Jones della teoria dei nodi era il po- 
linomio di Alexander, elaborato nel 
1926, che associa a ciascun nodo un po- 
linomio in /, calcolabile secondo un pro- 
cedimento standard. 

Non spiegherò questo procedimento 
perché è simile a quello del polinomio di 
Jones, e quest'ultimo è migliore, ma ho 
indicato i polinomi di Alexander per vari 
nodi differenti (si veda l'illustrazione 3). 
Il polinomio di Alexander è sufficiente 
per distinguere un «non nodo» da un 
«nodo semplice», ma non va bene per 
distinguere un «nodo piano» da un «no- 
do vaccaio», un «nodo semplice a sini- 
stra» da un «nodo semplice a destra». 
Prendete una cordicella e vedrete che 



non riuscite a trasformarli uno nell'altro 
e che i nodi non sono equivalenti. Il pro- 
blema sta tutto nel dimostrarlo! 

Tra il 1926 e il 1984, i matematici la- 
vorarono molto su questo argomento e 
su problemi analoghi, e fecero anche 
molti progressi utilizzando metodi assai 
complicati. La teoria dei nodi non era 
affatto in un vicolo cieco, ma certo aveva 
bisogno di nuove prospettive. 

Vaughan Jones è un matematico della 
Nuova Zelanda che attualmente lavora 
a Berkeley, in California. Nel 1984 stu- 
diava le «funzioni traccia nelle algebre 
degli operatori». Qualcuno notò che al- 
cune delle sue operazioni assomigliava- 
no a quelle che compaiono nella teoria 
delle trecce. Una «treccia» è un insieme 
aggrovigliato di corde, ma, a differenza 
dei nodi e delle catene, le estremità delle 
corde non si uniscono a formare cappi. 
La distinzione, comunque, non è molto 
importante e non impedisce di conside- 
rare una «treccia» come un tipo di allac- 
ciamento. Riflettendo sulle ragioni di 
una simile coincidenza, Jones scoprì che 
le sue funzioni traccia gli permettevano 
di definire un polinomio invariante per 
gli allacciamenti. 

In un primo momento, si pensò che il 
polinomio di Jones fosse una variante di 
un polinomio di Alexander, ma ben pre- 
sto ci si rese conto che era realmente 
qualcosa di nuovo. 

Vennero trovate delle definizioni più 
semplici, che non facevano intervenire le 
algebre degli operatori, e cinque gruppi 
distinti di matematici scoprirono indi- 
pendentemente e contemporaneamente 
una generalizzazione ancora migliore 



le scienze n. 266, ottobre 1990 85 



Regole relative al «polinomio di aggancio» 

1 <o> = 1. 

2 <EO> = -{a~ 2 + a 2 ) <N>. 

3 <X>=a<X>+3 _1 OC> 



Più in dettaglio: 

1. Il polinomio di aggancio del non nodo O è la costante 1 . 

2. Se si aggiunge un non nodo supplementare O a un allacciamento dato E, 
a cui non sia allacciato, il polinomio di aggancio è moltiplicato per - (a- 2 «■ a 2 ). 

3. Scegliamo un incrocio qualsiasi X in un allacciamento e spezziamolo in due 
modi distinti per ottenere X e) C Così facendo otteniamo due nuovi allacciamenti 
che rappresentiamo temporaneamente con X e) (. È possibile distinguerli: se il 
percorso viene da un «passaggio sotto», con una rotazione a destra sul vecchio 
«passaggio sotto», si ottiene X ; se la rotazione è a sinistra si ottiene } C 
Moltiplichiamo il «polinomio di aggancio» relativo al nuovo allacciamento ^ per a, 
e quello relativo a) Cper a-\ poi sommiamo. Il risultato è il polinomio di aggancio 
dell'allacciamento originale. 

Si noti che X e) Channo un incrocio in meno di X . Di conseguenza, la ripetizione 
di questo procedimento riduce progressivamente il numero di incroci, finché non 
ne rimane alcuno. Le regole 2 e 1 , poi, consentono di completare il calcolo. È chiaro 
che il risultato è lo stesso qualunque sia l'ordine in cui vengono spezzati gli incroci. 



Calcolo del «polinomio di aggancio» 

Il metodo (si veda la figura 5) è illustrato rispetto a un nodo semplice, ma funziona 
allo stesso modo per qualsiasi nodo. Iniziate dal nodo semplice (1). Scegliete un 
incrocio (segnato da un punto giallo). Spezzatelo nei due modi possibili per ottenere 
(2) e (3). Notate che l'allacciamento (2) è ottenuto con una rotazione a destra 
partendo da un passaggio sotto verso un passaggio sopra e che il nodo (3) è 
ottenuto con una rotazione a sinistra. Ripetete il procedimento sugli allacciamenti 
(2) e (3) per ottenere gli allacciamenti (4-7) e ripetete di nuovo finché tutti gli incroci 
sono spezzati e rimangono solo dei non allacciamenti. Per le regole 2 e 1, il 
polinomio di aggancio per un non allacciamento a n componenti è (-(a 2 + a" 2 ))"" 1 . 
Usate questo risultato per scrivere il polinomio di aggancio per gli allacciamenti 
(8-15). Risalite poi utilizzando la regola 3 per calcolare il polinomio di aggancio 
degli allacciamenti (4-7) poi (2-3) e infine (1). Nella tabella qui sotto sono illustrati 
i passaggi da una tappa all'altra. 



Allacciamento 


Polinomio di aggancio 


In che modo? 


15 


1 


Regola 1 


14 


-a 2 -a 2 


-(a 2 + a~ 2 )1 per la regola 2 


13 


-a 2 -a' 2 


-|a 2 + a' 2 )1 per la regola 2 


12 


a 4 + 2+a' 4 


-{-[a 2 + a" 2 )) 2 per la regola 2, due volle 


11 


1 


Regola 1 


10 


-a 2 -a 2 


- |a 2 +a~ 2 ).1 per la regola 2 


9 


1 


Regola 1 


8 


-a 2 -a 2 


-(a 2 +a 2 )1 per la regola 2 


7 


-a 3 


a<-\4>+ a -1 < 15 > per la regola 3 


6 


-a 3 


a< 10> + a" 1 <11 > per la regola 3 


5 


-a 3 


a < 8 > + a"' < 9 > per la regola 3 


4 


a s +a 


a < 1 2 > + a" 1 < 1 3 > per la regola 3 


3 


-a*-a 2 


a<6> + a" 1 < 7 > per la regola 3 


2 


a 6 


a<4>+ a" 1 <5>perla regola 3 


1 


a 7 -a 3 -a 


a<2>+a"'<3>perla regola 3 



Quindi, il polinomio di aggancio del nodo semplice è a 7 -a 3 -a 



per distinguere i nodi, generalizzazione 
alla quale viene attribuito il nome di po- 
linomio HOMFLY (Hoste-Ocneanu-Mil- 
lett-Freyd-Lickorish-Yeiter). Oggi la de- 
cina di nuovi polinomi di nodi costituisce 
un vero rompicapo, perché essi non si 
integrano bene nel meccanismo stabilito 
dalla topologia algebrica. I topologi san- 
no calcolare questi polinomi e dimostra- 
re teoremi al loro riguardo, ma non san- 
no bene che cosa siano e che cosa signi- 
fichino. Sono polinomi che hanno rela- 
zioni profonde con la teoria quantistica 
dei campi e i topologi dovranno studiare 
nuovi domini matematici per capire che 
cosa avvenga realmente. 

«1 polinomi di Jones devono essere 
molto complicati» disse Maddox. 

«Per niente! Fra un istante le farò ve- 
dere, non come calcolare un polinomio 
di Jones, ma come dimostrare che è 
un'invariante!» 

Questi polinomi s 
che ci si può chiedere perché non 
siano stati scoperti prima. Questo, co- 
munque, non sminuisce affatto il merito 
di Jones: uno dei più grandi contributi 
che un matematico possa dare è mettere 
in evidenza qualcosa di semplice e con- 
temporaneamente potente che nessuno 
aveva notato. 

«Innanzitutto» gli dissi «studieremo il 
diagramma di un nodo e i movimenti di 
base, il diagramma di un nodo non è 
altro che il disegno del nodo nel piano. 
A un incrocio, lei ha un passaggio sotto 
e un passaggio sopra. Ogni nodo è de- 
terminato dai suoi incroci e dal modo in 
cui i fili dei nodi sono uniti. Se deforma 
un nodo in modo continuo, cambia an- 
che il suo diagramma. Lo schema degli 
incroci resta di solito immutato, anche 
se la forma dei fili che li collegano è mo- 
dificata, ma non abbiamo bisogno di 
preoccuparci; a volte anche gli incroci 
stessi cambiano. 

Kurt Reidemeister, uno dei primi teo- 
rici dei nodi, ha dimostrato che le uniche 
variazioni che si devono prendere in con- 
siderazione sono di tre tipi, che chiame- 
rò movimenti di base. 

Il primo, la torsione, prende una parte 
di un nodo a forma di U e la torce su 
se stessa per formare un cappio (si veda 
la parte a dell'illustrazione 4). Questo 
cappio può anche essere eliminato me- 
diante un movimento contrario, una 
controtorsione. 

il secondo movimento di base, l'avan- 
zamento, spinge un cappio al di sotto (o 
al di sopra) di un altro; il suo inverso, 
l'arretramento, li separa (si veda laparte 
b dell' illustrazione 4). 

Infine, lo scivolamento sposta un filo 
su un incrocio formato da altri due fili (si 
veda l* parte e dell illustrazione 4) . 
che l'operazione inversa è semplicemen- 
te un altro scivolamento, non avremo bi- 
sogno di parlare di "descivolamento".» 

«Ogni deformazione continua di un 
nodo può essere rappresentata, sul suo 
diagramma, da una successione di movi- 



86 le scienze n. 266, ottobre 1990 



menti di base» spiegai. «Così, per dimo- 
strare che qualcosa è un'invariante del 
nodo, basta dimostrare che ciascun mo- 
vimento di base lo lascia immutato. In 
altri termini, devo dimostrare che resta 
uguale dopo una torsione (o una contro- 
torsione), un avanzamento (o un arre- 
tramento) e uno scivolamento.» 

«Capisco» disse Maddox. «Allora una 
successione completa di movimenti di 
base lo lascia immutato, così come ogni 
deformazione continua, È la definizione 
stessa di invariante.» 

«Precisamente! Ora le mostrerò come 
introdurre una piccola variante del poli- 
nomio di Jones - un metodo più semplice 
dovuto a Louis Kauffmann - e come uti- 
lizzare i movimenti di base per dimostra- 
re che si tratta di un'invariante.» 

Cominceremo con un oggetto un poco 
più semplice detto «polinomio di aggan- 
cio». Questo polinomio non è una vera 
invariante, ma, come vedremo tra poco, 
le si avvicina molto. È una combinazione 
di potenze positive e di potenze negative 
di una variabile a; per esempio: 

a 1 - 3a 2 + 2a- y - 5a" 6 



è un «polinomio di aggancio». Se N è un 
allacciamento o un nodo, il suo polino- 
mio di aggancio è </V>. Le tre regole 
per calcolare i polinomi di aggancio sono 
date nel riquadro in alto della pagina a 
fronte. Nel riquadro in basso, sempre 
nella pagina a fronte, è illustrato un cal- 
colo tipico. 

Dobbiamo controllare che il polino- 
mio di aggancio sia invariante rispetto ai 
movimenti di base; in realtà non lo è. 
Come si vede nel riquadro a pagina 88, 
è invariante rispetto agli avanzamenti e 
agli scivolamenti, ma non rispetto alle 
torsioni. Una torsione moltiplica il poli- 
nomio di aggancio per a 3 o per a~* se- 
condo la direzione della torsione. 

Possiamo rimediare al problema della 
torsione costruendo un secondo polino- 
mio che continua a non essere modifica- 
to da avanzamenti o da scivolamenti, ma 
che viene diviso per a? o per a -3 da una 
torsione. Potremo alloraj^ol^giic^Opi 
o dividerlo per il polinomio precèdente 
ed eliminare il problema dato dalle 
torsioni. 

Questo secondo polinomio è più facile 
da calcolare. Per prima cosa, definiamo 



un numero detto «attorcigliamento» del- 
l'allacciamento. Per calcolare l'attorci- 
gliamento, è necessario per prima cosa 
orientare l'allacciamento, aggiungendo 
una freccia a ciascuna componente. Poi 
si definisce il valore di un incrocio : +1 
o — 1, come è indicato nella parte a 
dell'illustrazione 6. L'attorcigliamento 
T(N) è la somma di tutti i valori di in- 
crocio del nodo N (si veda la parte b del- 
l'illustrazione 6). 

Una torsione aggiunge o toglie 1 a 
T(N). Un «avanzamento» o uno «scivo- 
lamento» lo lasciano immutato. 

Definiremo allora così il polinomio X 
di/V: 

X(N) = (- fl )- 37 W</V> 

La modificazione apportata agli attorci- 
gliamenti compensa esattamente il fatto 
che il polinomio di aggancio sia privo di 
i c jinvarianza per le torsioni. Questo dimo- 
stra che X(N) è un'invariante di allac- 
ciamento! Il polinomio originale di Jo- 
nes è ottenuto a partire da un polinomio 
X sostituendo a con t~ VA . 
Per un nodo semplice orientato in un 



) 



AVANZAMENTO 




SCIVOLAMENTO 




4. / movimenti di base: (a) la torsione, (b) l'avanzamento, 
(e) lo scivolamento. 



5. Calcolo del polinomio di aggancio di un nodo semplice. 

le scienze n. 266, ottobre 1990 87 



certo modo, l'attorcigliamento è pari a Per il «non nodo» abbiamo: 
3; quindi abbiamo: 

X(non nodo) = 

X{?iodo semplice) = = (-a) <non nodo = 1 
= (-fl)~ 9 <nodo semplice> 

= (-a) -9 (a 7 - a 3 - a) Questo dimostra che il nodo semplice 

= -a -2 4- fl" 6 + fl~ R non è equivalente al non nodo, cioè che 



Effetto del movimento di base su un polinomio di aggancio 

Torsione 

<S > = a<X > +a" <cj > 

= (-aTà 2 + a-*) + a-')(\J) 

= -s*(\J). 
Allo stesso modo < £ > = -a" 3 <\-/>- 

Avanzamento 

(5 ) - *<5 > + a- 1 <x>. 

= <K>. 

Scivolamento 

($$) = a <^> + a -1 <^> perla regola 3 

— a (ss^) + a _1 (5l^) utilizzando due «avanzamenti» 

= { <& > per la regola 3 




XX 



6. L'attorcigliamento: (a) incroci positivi e negativi, (b) la somma algebrica dei segni 
fornisce «V attorcigliamento». 



88 le scienze n. 266, ottobre 1990 



è veramente annodato: non può essere 
sciolto. Allo stesso modo, un allaccia- 
mento a due componenti (si veda la parte 
a dell'illustrazione 7) ha per «polinomio 
X» -a w ~a~ 2 mentre il «non allaccia- 
mento» a due componenti (si veda la 
parte b dell'illustrazione 7) ha, come po- 
linomio X, -a 2 -a 2 . Ouindi l'allaccia- 
mento a dell'illustrazione 7 non può es- 
sere «slacciato», un risultato che Mad- 
dox ha già dimostrato utilizzando i nu- 
meri di allacciamenti. [Per ricostruire la 
dimostrazione fatta da Maddox, seguen- 
do i suoi stessi suggerimenti, si possono 
immaginare due anelli di filo variamente 
allacciati, supponiamo uno nero e uno 
rosso. Prendendo come riferimento il fi- 
lo nero, si considera il numero dei pas- 
saggi «da sopra a sotto» del filo rosso e 
il numero dei passaggi «da sotto a sopra» 
e si assegna valore +1 a ciascuno dei 
primi e - 1 a ciascuno dei secondi. Per 
maggiore comodità, si può immaginare 
l'anello nero «riempito» con' una mem- 
brana: i passaggi sono allora gli attraver- 
samenti della membrana compiuti dal fi- 
lo rosso. La somma algebrica dei valori 
assegnati è un'invariante: se si elimina 
un allacciamento, si elimina una coppia 
di valori (+1, - 1) la cui somma algebri- 
ca è nulla. Occorre notare, inoltre, che 
due anelli di filo non allacciati hanno, 
come somma algebrica dei valori dei pas- 
saggi, zero.) 

Introducendo nel calcolatore il pro- 
gramma algebrico maple, ho calcolato i 
polinomi A" delle catene borromee di Ar- 
naud Maes per n = 1 , 2 , 3, 4 (si veda la 
parte a dell'illustrazione 2). I risultati, 
riportati nel riquadro in alto della pagina 
a fronte, evidentemente non corrispon- 
dono ai polinomi X degli «slacciamenti» 
associati. Di conseguenza, il polinomio 
X dimostra che questi allacciamenti non 
possono davvero essere separati. 

Cercate di calcolare i polinomi X per 
gli allacciamenti dell'illustrazione 8 uti- 
lizzando il procedimento descritto nel ri- 
quadro a pagina 86 in basso al fine di 
ottenere i loro polinomi di aggancio e 
usate l'attorcigliamento per compensa- 
re, come abbiamo spiegato in preceden- 
za, la mancanza di invarianza rispetto 
alla torsione. Non ho calcolato i polino- 
mi X degli altri allacciamenti borromei 
di Arnaud Maes né, a dire il vero, quelli 
degli anelli borromei originali. Se un 
lettore ottenesse dei risultati interes- 
santi, mi piacerebbe leggere che cosa ha 
scoperto. 

«Affascinante» disse Maddox «ma de- 
ve ancora mostrarmi come si distingue 
un nodo semplice dalla sua immagine 
speculare e come si riconoscono un nodo 
piano e un nodo vaccaio.» 

«I polinomi di Jones non consentono 
di farlo» risposi. «Occorrono i polinomi 
HOMFLY, che sono ancora più potenti. I 
polinomi HOMFLY sono delle invarianti 
per i nodi orientati, ossia nodi in cui si 
definisce il senso di spostamento sui fili. 
Quando si deforma il nodo non si deve 
cambiare il senso della freccia. Le regole 



del calcolo (si veda il riquadro in questa 
pagina in basso) sono del tutto simili, ma 
ora ci sono due variabili, / e m.» 

Utilizzando le regole del riquadro è 
possibile calcolare: 

P (nodo semplice sin.) = - 11 2 - l 4 + l 2 m 2 . 

P (nodo semplice ds.) = -2l' 2 -l' 4 + l 2 m 2 . 

P (nodo piano) = 

(- 2l 2 - l 4 + Pm 2 ) (- 21 2 - /■* + l 2 m 2 ). 

P (nodo vaccaio) = 

(_ li 2 - 1 4 + firn 1 /. 

Questo dimostra che i due «nodi sem- 
plici» non sono equivalenti, e che non lo 
sono neanche il «nodo piano» e il «nodo 
vaccaio». Era facile, una volta che Jones 
aveva indicato il metodo. 

«Magnifico!» esclamò Maddox saltan- 
do d'eccitazione sulla sedia. «Il poli- 
nomio HOMFLY è un'invariante comple- 
ta? Allacciamenti non equivalenti han- 
no in ogni caso dei polinomi HOMFLY 
differenti?» 

«Sfortunatamente non è così» dissi. 
«Abbiamo mostrato nell'illustrazione 9 
due allacciamenti non equivalenti che 
hanno polinomi HOMFLY identici. Inve- 
ce il polinomio HOMFLY - e in realtà il 
polinomio di Jones - è forse sufficiente 
per distinguere ogni nodo vero da un 
non nodo, nel senso che nessuno cono- 
sce esempi di nodi che non siano equiva- 
lenti a non nodi e per i quali il polinomio 
di Jones o il polinomio HOMFLY sia ugua- 
le a 1 . È stato verificato su 12 965 nodi 
con un massimo di 13 incroci.» 

«Stupefacente!» disse Maddox. 

«Noti comunque» aggiunsi «che nes- 
suno ha dimostrato che un nodo con po- 
linomio di Jones uguale ale sciolto. È 
veramente un mistero.» 

«Non so come utilizzare uno qualsiasi 
di questi ragionamenti per farne un nuo- 
vo gioco di prestigio: per quanto... » os- 
servò Maddox profondamente concen- 
trato. «No, non vedo proprio a che cosa 
possa servire. È incantevole; ma serve a 
qualcosa?» 

«È matematica di base» dissi. «Anche 
se questi risultati non sono utili ora, un 
giorno lo saranno di sicuro. I nodi inter- 
vengono in tutti i domini: non servono 
soltanto per fare dei pacchetti. Comun- 
que, la teoria ha applicazioni in fisica 
matematica.» 

«Non è quello che intendevo. Quello 
che voglio io è guadagnare dei soldi» in- 
sistette Maddox. 

«L'ho capito bene» dissi. «Lei sa che 
la molecola del DNA è costituita da due 
filamenti intrecciati che formano una 
doppia elica?» 

«Naturalmente!» 

«I biochimici analizzano la struttura 
del DNA utilizzando enzimi per tagliare 
a pezzi i suoi filamenti. Di solito le estre- 
mità si riuniscono e si ottiene così una 
molecola allacciata che si può osservare 
al microscopio elettronico. C'è però un 
problema: lo stesso allacciamento può 
sembrare molto diverso a seconda del 
modo in cui è stato deformato prima del- 





Polinomi Xper gli allacciamenti di Arnaud Maes 


n = 1 


a 12 + a « _ a 2 _ 1 _ 2 a - 8 + a'* - a" 10 + a' 12 


n = 2 


- a 22 -a 14 + 2a 12 + a 8 + 4a 4 -2a 2 + 3-3a" 2 + 2a-*-4a- 8 




- Sa - 10 + 2a - 12 - 4a - 14 + 2a " 18 - a " ie + a " 20 


n = 3 


. a 32 _ a 24 + 3a 22 + 2a 18 + Qg,A _ 3 g 12 + A g 10 _ 3 g 8 + 3^6 




- 7a 4 + 10 + a 2 -11a'* + 5a" e - 3a- e + 11a- 10 -a- 12 + 13a" 14 




- 3a- 18 -1- 10a- ,s -5a- 20 + 5a~ 22 -3a~ 24 + a- 2fl -a" 28 


n = 4 


- a 42 - a 34 + 4a 32 + 3a 28 + 8a 24 - 6a " + 5a 20 -8a 18 + 4a 18 




- I9a 14 + 3a 12 - 24a 10 + 7a e - 25a e + 20a 4 - 11a 2 + 37 




- &r 2 + 47a- 4 - 14a" e + 36a" 8 - 28a- 10 + 20a' 12 - 36a" 14 




+ 8a- 1B - 36a- 1B + 9a" 3 ° - 28a'" + 11a' 24 - 16a- 26 + 9a' 28 




- 6a- 30 + 4a" 32 - a" 34 + a" 38 



Il polinomio HOMFLY 

È indicato con P(N), dove N è un nodo orientato. Ci sono due regole: 

1. PiO) = 1 

2 ' /P (X) + /- 1 P (X) + mP (X) = 

Nella regola 2, l'immagine mostra dei cambiamenti proprio a un incrocio del 
nodo. Lo stesso varrà per tutti gli incroci. 





O 



-é-é 



7. Il polinomio X di un allacciamento a due componenti (a) 
e quello di un non allacciamento a due componenti (b) sono diversi. 






8. Alcuni allacciamenti: sapete trovare i loro polinomi X? 

le scienze n. 266, ottobre 1990 89 




Ouesti raccoalitori corrispondono ai volumi XLIV e XLV 

. 'ttivamente ai fascicoli da gennaio (n. 257) 

a giugno (n. 262) e da luglio (n. 263) a dicembre (n. 268). 

Sono ancora disponibili i raccoglitori dal Voi. XXXVII al XLIII e 

accoglitori appositamente non numerati per sostituire quelli esaurir 

I raccoglitori si possono richiedere direttamente all'editore usando 

l'apposita cartolina allegata alla rivista e unendo il relativo importo 

gli ordini infatti vengono evasi solo a pagamento avvenuto. 

I raccoglitori si trovano anche presso i seguenti punti vendita 

BOLOGNA - Libreria Parolini Via U. Bassi 14 

FIRF.NZE Libreria Marzocco Via de* Martelli 22/R 

.iVA Libreria Int. Di Stefano Via R, Ceccardi 40/R 

MILANO Le Scienze S.p.A Piazza della Repubblica 8 

TORINO Libreria Zamboni C.so Vittorio Emanuele 41 

NAPOLI Librena Guida A. Via PortAlba 20/21 

PADOVA Libreria Cortina Via F. Marzok) 4 

PALERMO Libreria Dante • Quattro Canti di Città 

ROMA Libreria Feltnnelli Via V. Emanuele Orlando 



90 LE scienze n. 266, ottobre 1990 




LE SCIENZE 



9. Un caso in cui i polinomi HOMFLY 

falliscono: questi due nodi differenti 

hanno lo stesso polinomio! 



l'osservazione. Si potrebbe utilizzare il 
nuovo polinomio di allacciamento per 
identificarlo.» 

«Sempre troppo poco remunerativo 
per Maddox!» 

«Aspetti» dissi. «La American Scien- 
ce Foundation ha appena investito due 
milioni di dollari su un progetto di 
questo genere... Questa somma non le 
interesserebbe?» 



Risposte 

I polinomi X per gli allacciamenti del- 
l'illustrazione 8 sono: 

(a)-2a b + 3a 2 -2a' 2 - a* - d*« + a H 
(b) - a 1 - a' 2 (non sono allacciati!) 
(c)a i2 + 2a* + a*. 



BIBLIOGRAFIA 

JONES V. F. R., A Polynomial Invetriarli 
for Knots via von Neumann Algebras in 
«Bulletin ofthe American Mathematica! 
Society», n. 12, pp. 103-111, 1985. 

LICKORJSH W. B. R. e M1LLETT K. C, 
The New Polynomial Invahants of Knots 
and Links in «Mathematica Magazine», 
n. 61, pp. 3-23, febbraio 1988. 

Stewart ian, Les mathématiques, se- 
rie Sciences d'avenir, Pour la Science, 
Parigi, 1989. 



'SCIENTIFIC 
AMERICAN 



presenta 



LE MISSIONI VOYAGER 




itti o v 






-tale**»** 



\3bP' 



***' 



u> ^A.000 



I grande balzo in avanti nette nostre conoscenze sut sistema solare esterno 
è stato compiuto grazie alle fortunate missioni delle sonde Voyager che hanno 

consentito di osservare da vicino pianeti che prima erano accessibili 

solo attraverso i telescopi. 

Ora che le sonde hanno esaurito il loro compito 

e si stanno entrambe allontanando dal sistema solare. Le Scienze dedica loro un volume 

fuori collana 

contenente la più completa raccolta di articoli mai apparsa sulla stampa non specializzata. 

Integrato da un'ampia introduzione di Marcello Coradini, responsabile 

dei programmi di esplorazione del sistema solare del'Agenzia spaziale europea, 

questo volume rappresenta un affascinante viaggio nello spazio interplanetario 

e un prezioso complemento dei tradizionali testi di astronomia. 

Il volume è distribuito nelle librerie da La Nuova Italia Editrice. 
Si può acquistare anche direttamente dall'editore 
utilizzando l'apposita cartolina Inserita in questo fascicolo.